인공지능 시대, 인간은 어디로 가는가: 기술과 철학이 만나는 지점에서
최근 우리는 AI가 인간의 직업을 빼앗는다는 이야기를 흔히 듣는다. 뉴스 기사나 유튜브 영상에서는 “앞으로 많은 직업이 사라질 것이다”라는 경고가 넘쳐난다. 그러나 실제로는 단순히 일자리의 숫자가 줄어드는 문제만으로 접근하기 어렵다. AI가 만들어내는 변화는 ‘직업의 소멸’보다 ‘직업의 변형’에 더 가깝다.
예를 들어, 과거 10년 전까지만 해도 사람들은 예술가나 개발자는 안전하다고 여겼다. 창의력이 필요한 예술, 고도의 기술이 필요한 프로그래밍은 기계가 대체하기 어렵다고 믿었다. 하지만 지금 상황은 정반대다. 그림을 그려주는 생성형 AI는 전 세계 예술가들의 작업 방식을 흔들어 놓고 있고, 코딩을 보조하는 AI는 신입 개발자 채용을 줄이는 요인으로 작용하고 있다.
여기서 중요한 것은 ‘AI가 인간을 완전히 대체하는가?’라는 질문이 아니라, ‘AI가 인간의 역할을 어떻게 변화시키는가?’이다.
AGI, 인간 수준의 지능은 가능한가
AI 논의에서 자주 등장하는 개념이 AGI(Artificial General Intelligence), 즉 ‘범용 인공지능’이다. 쉽게 말해, 특정 과제에만 특화된 AI가 아니라, 인간처럼 다양한 일을 어느 정도 다 해낼 수 있는 인공지능을 뜻한다.
현재 우리가 접하는 AI는 대부분 특수 인공지능(ASI: Artificial Specialized Intelligence)이다. 바둑을 두는 알파고를 예로 들어 보자. 알파고는 세계 최고의 기사들을 연이어 꺾을 정도로 바둑을 잘 두지만, 다른 분야에는 무능하다. 알파고에게 의학 문제를 던지면 대답하지 못한다. 다시 훈련을 시켜야만 새로운 일을 할 수 있기 때문이다.
반대로 인간은 ‘대충 다 할 줄 아는’ 능력을 갖추고 있다. 뛰어난 화가는 수학을 잘 못할 수도 있지만, 기본적인 계산 정도는 한다. 과학자는 그림을 못 그리더라도 간단한 스케치쯤은 한다. 이런 다재다능함의 최소치가 바로 인간의 힘이다. AGI란 이와 같은 능력을 기계가 획득하는 것을 의미한다. 그러나 지금의 AI는 아직 거기에 도달하지 못했다.
왜 기업은 AGI 대신 AI 에이전트에 집중하는가
투자자와 연구자 사이에는 온도 차이가 있다. 연구자들은 AGI라는 장기적 목표에 관심이 많지만, 투자자는 당장 돈이 되는 기술을 원한다. 그 결과 최근 각광받는 것은 AI 에이전트다.
에이전트란 특정 작업을 대신 수행하는 도구다. 예를 들어 이메일 정리, 일정 관리, 코드 작성 같은 일을 맡겨두면 스스로 실행해 준다. 이는 범용적이지 않지만, 당장 실무에서 큰 효율성을 준다.
기업이 에이전트를 선호하는 이유는 간단하다. 비용 절감이다. 신입 개발자를 뽑아 가르치고 실무에 적응시키는 데 드는 비용보다, AI를 학습시켜 활용하는 편이 더 싸다. 하지만 이런 선택이 장기적으로는 ‘탈숙련’ 문제를 낳는다.
탈숙련의 그림자
탈숙련이란, 숙련된 인력이 사회에서 점점 줄어드는 현상이다. 예를 들어 경력 10년 차 개발자는 신입에게 일을 가르치고, 프로젝트의 큰 그림을 설계한다. 그러나 기업이 비용을 아낀다며 신입을 줄이고 AI로 대체한다면, 시간이 지나 숙련자 자체가 부족해진다. 그러면 AI를 제대로 활용할 사람도 사라진다.
이 문제는 교육과 정책 차원에서 해결해야 한다. 단순히 효율성을 좇아 기업에 맡겨 두면 숙련 인력이 고갈된다. 따라서 사회는 AI를 다루고 감독할 수 있는 인재를 일정 비율 이상 확보해야 한다. 학교 교육 역시 단순한 문제 풀이보다, AI를 ‘통제하고 활용하는 훈련’으로 방향을 잡아야 한다.
AI의 환각, 위험이자 창의성의 원천
생성형 AI는 때때로 할루시네이션(hallucination, 환각)을 일으킨다. 즉, 그럴듯하지만 사실과 다른 내용을 만들어 낸다. 예를 들어 실제 존재하지 않는 학자의 이름을 지어내거나, 사실과 다른 연도를 말하기도 한다.
많은 사람은 이를 ‘AI가 거짓말한다’고 오해하지만, 정확히 말하면 AI는 참과 거짓을 구분하지 못한다. 단지 문맥상 가장 자연스러운 문장을 이어 붙일 뿐이다. 따라서 거짓 정보가 섞이는 것은 기술 구조상 피할 수 없는 현상이다.
그렇다고 환각이 무조건 나쁜 것은 아니다. 예술 분야에서는 오히려 창의성의 원천이 된다. 존재하지 않는 풍경이나 상상 속의 인물을 그려내는 능력은, 인간 예술가에게 새로운 영감을 준다. 예술가들은 이를 ‘협력자’처럼 사용한다. 붓과 물감이 단순 도구라면, 생성형 AI는 아이디어를 던져주는 동료에 가깝다.
편향과 알고리즘, 보이지 않는 위험
유튜브나 SNS의 추천 알고리즘을 떠올려 보자. 내가 특정 주제 영상을 몇 개 보면, 비슷한 콘텐츠가 계속 따라온다. 이는 편리하지만 동시에 ‘필터 버블(Filter Bubble)’과 ‘에코 챔버(Echo Chamber)’를 낳는다. 즉, 다양한 관점을 접하지 못하고, 내 취향과 신념만 강화되는 것이다.
이 문제를 해결하기 위한 방법으로 학자들은 두 가지를 제안한다.
- 투명성: 어떤 원리로 추천하는지 공개하라.
- 사용자 선택권: 적어도 일정 비율은 다른 관점의 콘텐츠를 노출하도록 설정할 권리를 보장하라.
이는 단순히 개인의 정보 문제를 넘어, 민주사회에서의 여론 형성과 직결되는 문제다.
기술, 제도, 그리고 행복
결국 중요한 질문은 이것이다. AI는 우리를 행복하게 할 수 있는가?
답은 단순하지 않다. AI 자체가 행복을 보장하지는 않는다. 다만 우리가 어떻게 활용하고 통제하느냐에 따라 달라진다. 즉, 기술 개발과 함께 제도적 장치, 교육, 사회적 합의가 병행되어야 한다.
과거 산업혁명 때도 기계가 인간의 일을 빼앗는다는 두려움이 있었다. 그러나 인간은 적응했고, 새로운 직업이 생겨났다. 오늘날의 AI 역시 마찬가지다. 각 시대마다 새로운 도전이 있었고, 그때마다 인간은 대응책을 찾아냈다. 이번에도 그러할 것이다.
결론
AI는 단순한 도구가 아니다. 그것은 인간의 직업, 교육, 창의성, 사회 제도 전반을 흔드는 새로운 패러다임이다. 중요한 것은 두려움에 머무르지 않고, 변화의 본질을 이해하며 대응하는 일이다.
- 일자리는 사라지지 않는다. 변한다.
- AI는 평가와 책임을 대신하지 못한다.
- 창의적 활용은 인간의 몫이다.
- 제도와 교육이 미래를 결정한다.
이 모든 논의의 바탕에는 한 가지 전제가 있다. AI의 미래는 정해져 있지 않다. 우리가 어떻게 만들고 사용하는가에 달려 있다.
댓글
댓글 쓰기