본문 바로가기
카테고리 없음

AI 시대 일자리 변화 (직능 변화, AGI 정의, 환각과 창의성)

by 슈퍼노각 2026. 1. 29.
반응형

AI 기술의 급속한 발전은 단순히 일자리를 없애거나 만드는 이분법적 논쟁을 넘어, 우리 사회의 경력 형성 구조와 직업의 본질 자체를 근본적으로 재편하고 있습니다. 특히 신입 단계의 소멸 가능성과 숙련 전문가의 역할 변화는 개인의 문제를 넘어 사회 제도적 차원의 대응이 필요한 시점입니다. 이 글에서는 AI가 가져올 직능의 재편, AGI의 실체적 의미, 그리고 환각 현상이 지닌 양면성을 통해 우리가 어떻게 AI 시대를 준비해야 할지 살펴보겠습니다.

AI와 인간의 만남 형상 이미지

AI 시대의 직능 변화: 사라지는 일자리가 아닌 바뀌는 역할

많은 사람들이 AI가 단순 반복 작업을 대체하고 어려운 일은 인간의 몫이라고 생각하지만, 이는 오해입니다. AI는 잘 정의된 과업에 대한 양질의 데이터만 있다면 복잡한 작업도 훌륭하게 수행할 수 있습니다. 놀랍게도 10년 전에는 안전하다고 여겨졌던 예술 분야나 IT 개발자들 사이에서 AI의 영향력이 크게 나타나고 있습니다.

특히 신입 개발자 채용이 줄어드는 현상은 AI 에이전트가 저렴하게 훈련되어 단순 코딩 업무를 대체할 수 있기 때문입니다. AI 에이전트는 특정 기능에 특화된 인공지능으로, 사용자가 특정 작업을 수행할 때 비용을 지불하게 함으로써 수익을 창출하는 모델입니다. 이러한 에이전트는 특정 분야에서 '한 사람 몫'의 일을 해낼 것으로 기대되며, 이는 다시 일자리 감소에 대한 우려로 이어집니다.

그러나 AI가 인간을 완전히 대체하는 것은 아닙니다. AI를 지시하고 그 결과를 평가하며 아이디어를 조합하여 거대한 프로젝트를 이끌어갈 수 있는 경력 5년 이상의 숙련된 전문가의 역할은 여전히 중요합니다. UN 보고서에 따르면, 줄어드는 일자리의 '개수'보다 기존 직업의 '직능 변화'에 주목해야 합니다. 교사처럼 AI가 효율적으로 할 수 있는 부분은 AI에 위임하고, 정서적 발달 지원이나 AI 현명한 사용법 교육 등 인간 고유의 역할에 집중하는 방향으로 직능이 바뀔 것입니다.

문제는 사회 전체적으로 이러한 핵심 역량이 점차 줄어들고 있다는 점입니다. 신입 단계의 경험 기회가 사라지면, 미래의 숙련 전문가 양성 자체가 불가능해질 수 있습니다. 이는 과거 운전이 기술이었던 시절 '기사'라는 직업이 사라졌지만, 운전을 '극상으로 잘하는' 사람은 살아남았듯이 AI 시대에도 특정 분야의 전문성을 극대화하는 사람이 살아남을 것이라는 시각과 일맥상통합니다. 따라서 기업은 비용 절감에만 집중하기보다, 사회 전체적인 차원에서 AI 활용 역량을 키울 수 있는 방안을 제도화하고 실천해야 합니다.

AGI의 정의: 인간 수준이 아닌 범용 처리 능력

AGI(인간 수준 범용 지능)는 SF 영화에 등장하는 안드로이드 로봇처럼 인간과 구별할 수 없는 인공지능을 연상시키기 쉽습니다. 하지만 로봇 기술과 인공지능 기술은 별개이며, 인공지능은 챗GPT처럼 온라인상에서 존재합니다. AGI를 단순히 '인간 수준의 지능'으로 정의하는 것은 모호합니다. 왜냐하면 인간의 지능 범위도 다양하고, 전문가들조차 전문 분야가 다르면 지능의 특성이 달라지기 때문입니다.

컴퓨터 과학자들은 AGI를 '잘 정의된 과업이라면 어떤 내용이든 처리할 수 있는 인공지능'으로 정의합니다. 현재의 특수 인공지능(ASI)은 알파고처럼 특정 분야에서만 뛰어난 능력을 발휘하며, 다른 분야로 훈련시키면 기존의 능력은 떨어집니다. 반면 AGI는 하나의 시스템으로 다양한 잘 정의된 문제를 처리할 수 있는 능력을 목표로 합니다.

챗GPT가 여러 질문에 답할 수 있지만, '환각' 현상이나 서치를 통한 정보 수집 등 여전히 한계가 있어 AGI에 도달했다고 보기는 어렵습니다. 인간은 지식의 양이나 그림 실력에서 AI보다 못할 수 있지만, 거의 모든 일을 '대충' 할 수 있는 범용적인 능력을 가집니다. 이것이 바로 AI가 아직 도달하지 못한 부분이며, 일반 인공지능의 궁극적인 목표입니다.

AGI 개발 필요성에 대해 기술자와 투자자 사이에 갈등이 있습니다. 투자자들은 막대한 투자금을 회수하기 위해 '돈이 되는' AI 개발에 집중하고 있으며, 그 결과 'AI 에이전트'가 주목받고 있습니다. 이러한 현실적인 시장 압력은 AGI라는 이상적 목표와 충돌하면서, AI 발전의 방향성에 대한 근본적인 질문을 던지고 있습니다. 기술의 궁극적 완성도를 추구할 것인가, 아니면 당장 실용적이고 수익성 있는 응용에 집중할 것인가 하는 선택은 단순히 기업의 전략을 넘어 사회 전체의 AI 발전 경로를 결정하는 중요한 분기점입니다.

환각과 창의성: AI의 한계이자 가능성

AI의 '환각(hallucination)'은 인공지능이 거짓말을 하는 것이 아니라, 참과 거짓을 구분하는 필터 없이 가장 자연스러운 말을 생성하는 기술적인 특징입니다. 챗GPT가 70년대 뉴스 앵커로 저를 착각한 사례처럼, AI는 거짓을 거짓으로 인지하지 못하고 그럴듯한 정보를 만들어냅니다. 이는 AI 아키텍처의 기본적인 한계로, 환각은 줄일 수는 있지만 완전히 없앨 수는 없습니다. 따라서 중요한 결정에는 반드시 인간의 확인이 필요합니다.

그러나 환각은 부정적인 면만 있는 것이 아닙니다. 예술 분야에서는 환각이 창의성의 원천이 될 수 있습니다. AI는 세상에 없는 기괴하거나 새로운 아이디어를 만들어낼 수 있으며, 예술가는 이를 활용하여 자신의 창작물을 발전시킬 수 있습니다. AI는 단순한 도구가 아니라 예술가의 '협력자'로서 역할을 하며, 영화 제작 등에서도 배경 변경을 통한 비용 절감 등 생산적으로 활용됩니다.

일반인들이 AI의 환각에 대응하는 방법으로는 두 가지가 제시됩니다. 첫째, 구체적인 관심사를 담아 질문을 던져 답변의 범위를 좁히고, 답변에 대해 '진짜 맞아?'와 같은 추가 질문을 통해 정확도를 높여야 합니다. 둘째, 초기 탐색 단계에서는 자유롭게 AI를 활용하되, 공적인 발표나 자신의 위신이 걸린 문제에서는 반드시 내용을 확인해야 합니다.

환각 현상은 AI의 편향성과 프라이버시 문제와도 연결됩니다. 유튜브 추천 알고리즘처럼 AI는 사용자의 선호도에 맞춰 콘텐츠를 제공하여 '필터 버블'이나 '에코 챔버'를 형성할 수 있습니다. 이는 사용자의 자율적인 선택권을 제한하고 편향된 시각을 강화할 수 있다는 점에서 문제가 됩니다. 이에 대한 대응책으로 AI 추천 방식의 '투명성'과 사용자가 추천 콘텐츠를 조절할 수 있는 '통제권'이 요구됩니다. 또한 인터넷 쇼핑몰에서 특정 대화 내용이 광고로 나타나는 현상처럼, AI는 사용자의 동의 없이 마이크를 통해 대화 내용을 수집하여 맞춤형 정보를 제공할 수 있습니다. 공식적으로는 부인하지만, 약관 동의를 통해 기업은 '서비스 품질 향상'을 명분으로 이러한 데이터 수집을 정당화할 수 있습니다. 이에 대한 해결책으로 AI의 정보 수집 방식에 대한 '투명한 공개'와 사용자의 '명시적인 동의'를 제도적으로 강제해야 합니다.

AI의 미래는 정해져 있는 것이 아니라, 우리가 어떻게 만들어가느냐에 달렸습니다. AI 기술 발전만큼이나 이 기술을 어떤 방향으로 통제하고 활용할지에 대한 거버넌스 구축이 중요합니다. 정부는 다양한 가능성을 제공하고, 개인은 그러한 기회를 적극 활용하여 자신의 역량을 끌어올리려는 노력을 해야 합니다. 최근 정부는 AI의 혁신적인 중요성을 인식하고 국정 과제로 삼아, 단순한 기술 투자뿐만 아니라 AI의 문제점과 대중의 기대 및 우려를 공론화하고 정책에 반영하려는 노력을 하고 있습니다. 각 시대마다 도전 과제가 있었듯, AI 시대의 과제 또한 우리가 적극적으로 해결해나가야 할 부분입니다. 결국 AI 시대의 핵심은 기술의 속도가 아니라, 인간이 판단·책임·의미를 어떻게 다시 설계하느냐에 달려 있으며, 개인 한 명 한 명의 생각과 의견이 모여 더욱 바람직한 AI 미래를 만들 수 있습니다.

반응형

소개 및 문의 · 개인정보처리방침 · 면책조항

© 2025 슈퍼노각