
인공지능 기술이 급격히 발전하면서 많은 사람들이 일자리 감소를 걱정하고 있습니다. 하지만 한양대학교 철학과 이상욱 교수는 지식인초대석에서 AI 시대에 필요한 진짜 역량은 단순히 AI를 사용하는 것이 아니라, AI를 제대로 평가하고 협력할 수 있는 능력이라고 강조합니다. 특히 IT 개발자들조차 일자리가 줄어드는 역설적 상황에서, 우리는 어떤 관점으로 AI와 공존해야 할까요? 물처럼 다투지 않으면서도 본질을 꿰뚫는 지혜가 필요한 시점입니다.
일반인공지능 AGI의 진실과 현실
많은 사람들이 AGI(인간 수준 범용 지능)를 SF 영화에 나오는 안드로이드 로봇을 떠올리지만, 실제로는 매우 다릅니다. 이상욱 교수는 로봇 기술과 인공지능 기술이 별개라는 점을 명확히 했습니다. 채팅GPT와 같은 인공지능은 온라인상에 존재하며, 물리적 공간을 돌아다니는 로봇과는 근본적으로 다릅니다.
AGI의 정의는 사람마다 다르지만, 컴퓨터 과학자들은 "잘 정의된 과업이라면 그 내용이 무엇이든 처리할 수 있는 인공지능"으로 정의합니다. 알파고가 바둑에서 기가 막히게 잘 두었지만, 메디컬 쪽으로 훈련을 받으면 바둑은 더 이상 두지 못합니다. 이를 특수 인공지능(Artificial Intelligence Special Intelligence)이라고 부릅니다. 바둑용으로 조정된 수많은 파라미터를 게임용으로 다시 조정하면 바둑 실력은 사라지는 것입니다.
현재 채팅GPT가 일반인공지능에 가장 가깝다고 평가받지만, 여전히 완벽하지 않습니다. 채팅GPT조차 서치(검색)를 통해 정보를 찾아 제너레이션(생성)하는 방식으로 작동합니다. 인간은 서치 없이도 대충 대부분의 일을 할 수 있지만, 현재 인공지능은 그렇지 못합니다. 사람은 지식의 폭에서 채팅GPT보다 못하고 그림 실력도 이미지 생성 인공지능보다 떨어지지만, 거의 모든 일을 대충은 다 할 수 있습니다. 이것이 바로 일반인공지능이 추구하는 목표입니다.
흥미로운 점은 기술자들과 투자자들 간의 갈등입니다. 투자자들은 엄청난 자금을 투입한 만큼 실질적인 수익을 원하기 때문에, AGI보다는 당장 돈이 되는 AI 에이전트 개발에 압력을 넣고 있습니다. AI 에이전트는 AGI가 아니라 특정 기능에 특화된 인공지능입니다. 빅테크 기업들도 당분간은 실용적인 AI 에이전트 방향으로 갈 것으로 예상됩니다.
| 구분 | 특수 인공지능 | 일반인공지능(AGI) |
|---|---|---|
| 기능 범위 | 한 가지 특정 작업에 특화 | 모든 종류의 과업 수행 가능 |
| 사례 | 알파고, AI 에이전트 | 채팅GPT(근접, 미완성) |
| 개발 현황 | 상용화 단계 | 연구 개발 단계 |
| 투자자 선호도 | 높음(수익성 명확) | 낮음(장기 투자 필요) |
실제로 IT 개발자들이 한국 판교에서 덜 뽑히고 있다는 현실은 충격적입니다. 신입 개발자와 AI 에이전트를 비교했을 때, 둘 다 가르쳐야 한다면 비용이 훨씬 저렴한 AI를 선택하는 것이 기업의 합리적 판단이기 때문입니다. 다만 경력 5년 이상의 숙련된 개발자는 여전히 필요합니다. 이들은 AI에게 지시하고, AI의 결과물을 평가하고 가르치며, 거대한 프로젝트를 총괄할 수 있는 능력을 갖추고 있기 때문입니다.
환각(Hallucination)의 놀라운 생산성
채팅GPT를 비롯한 생성 인공지능의 환각(할루시네이션) 문제는 많은 사람들이 우려하는 부분입니다. 이상욱 교수가 경험한 사례를 보면, 70년대 뉴스에서 맹활약한 여성 아나운서라는 전혀 사실이 아닌 정보가 생성되기도 했습니다. 그러나 이 환각을 단순히 부정적으로만 볼 필요는 없습니다.
환각의 본질을 이해하려면 현재 생성 인공지능의 아키텍처를 알아야 합니다. 이 기술은 참과 거짓을 구별하는 필터 없이, 주어진 내용에 비추어 가장 자연스럽게 따라올 말들을 만들어내도록 설계되었습니다. 인간은 확실한 정보와 불확실한 정보를 구분해서 말하지만, 현재의 생성 인공지능은 그런 구분 없이 모든 것을 동등하게 자연스럽게 표현합니다. 오히려 이 정도로 참말을 많이 하는 것 자체가 기술자들의 엄청난 노력의 결과입니다.
그렇다면 환각을 어떻게 활용할 수 있을까요? 예술 분야에서 환각은 놀랍도록 생산적입니다. 예술가가 어떤 아이디어를 가지고 있지만 그것을 완전히 구체화하지 못할 때, AI에게 "여기서 가능한 모든 것들을 창의적으로 만들어봐"라고 요청하면 AI는 환각을 통해 세상에 없던 것들을 무수히 만들어냅니다. 예술가는 그중에서 괜찮은 것을 선택하고 다시 변형을 요청하며 협력자처럼 작업할 수 있습니다.
영화 제작에서도 환각의 생산성이 빛을 발합니다. 특정 장면을 촬영한 후 배우의 연기는 만족스럽지만 배경이 마음에 들지 않을 때, 과거에는 엑스트라를 포함한 모든 인원을 다시 소집해야 했습니다. 하지만 이제는 인공지능으로 배경만 완전히 바꿀 수 있어 비용을 엄청나게 절감할 수 있습니다. 환각을 부정적으로만 단정하기보다는, 분야마다 생산적으로 활용할 방법을 모색해야 합니다.
물론 환각에 대응하는 방법도 중요합니다. 첫째, 질문을 던질 때 자신의 관심사와 이미 알고 있는 정보를 구체적으로 포함시켜 스페시픽한 답변을 유도해야 합니다. 둘째, AI에게 자기 답변을 검증하도록 요청할 수 있습니다. "이게 정말 맞아? 확인해봐"라고 추가 질문을 계속하면서 더 정확한 답으로 유도하는 능력이 필요합니다. 셋째, 탐색 단계에서는 마음껏 AI를 활용하되, 공적으로 발표하거나 자신의 위신이 걸린 중요한 순간에는 반드시 내용을 확인해야 합니다.
퍼플렉시티처럼 근거를 함께 제시하는 AI도 있지만, 이 역시 환각을 줄일 뿐 완전히 제거하지는 못합니다. 퍼플렉시티는 질문과 유사한 콘텐츠를 먼저 검색해서 그 결과를 질문 앞에 추가함으로써 생성 과정에서 환각을 제한합니다. 그러나 마지막 생성 단계는 여전히 존재하므로 100% 신뢰할 수는 없습니다. 환각은 기술의 버그가 아니라 특징이라는 점을 항상 기억하고 사용해야 합니다.
알고리즘 투명성과 개인의 선택권
유튜브 페이지를 타인에게 보여주면 안 된다는 말이 있습니다. 정치적 성향부터 평소 관심사까지 모든 것이 알고리즘에 의해 노출되기 때문입니다. 더 무서운 것은 친구와 마이크 이야기를 하면 곧바로 관련 광고가 뜨는 현상입니다. 이상욱 교수는 공식적으로는 인정하지 않지만, 실험 결과 휴대폰 마이크가 대화를 듣고 있을 가능성이 95% 이상이라고 판단합니다.
구글 같은 서비스를 사용할 때 우리는 약 40~50페이지에 달하는 약관에 동의합니다. 대부분 읽지 않지만, 그 안에는 "서비스 품질 향상을 위해 필요한 데이터 및 정보를 수집할 수 있다"는 내용이 포함되어 있습니다. 기업 입장에서는 프라이버시를 침해하는 것이 아니라 인공지능이 듣고 개인화된 서비스를 제공하는 것이라고 주장할 수 있습니다. 마이크가 없는 컴퓨터에서도 유튜브 추천 동영상에 대화 내용이 반영되는 이유는, 옆에 있는 휴대폰이 듣고 구글 계정을 통해 컴퓨터로 정보를 전송하기 때문입니다.
이러한 알고리즘 편향은 이미 큰 문제로 인식되고 있습니다. 개인이 자율적으로 무엇을 할지 선택할 권리가 있는데, AI가 너무 강력한 도구를 제공해 필터 버블(filter bubble)이나 에코챔버(echo chamber) 현상을 만들어냅니다. 사용자가 좋아하는 동영상 몇 개를 보면 그쪽 콘텐츠만 계속 추천받게 되어, 다른 세상이 있다는 것을 모르게 됩니다. 설문 조사 결과 사람들은 막연하게 이것이 바람직하지 않다고 느끼지만, 좋아하는 콘텐츠가 계속 나오니 그대로 소비합니다.
과거 레거시 미디어는 공정보도 원칙에 따라 논쟁적 사안의 찬반 양론을 균형 있게 보도했습니다. 사람들은 좋든 싫든 양쪽 의견을 모두 접할 수밖에 없었고, 그래서 생각이 바뀔 기회가 있었습니다. 하지만 유튜브 같은 플랫폼에서 이를 강제할 수 있을까요? 추천 알고리즘을 과도하게 건드리면 개인의 선택권을 제한하는 것이 됩니다.
현재 전문가들이 제안하는 대응책은 두 가지입니다. 첫째는 투명성입니다. 유튜브나 포털이 어떤 원리와 방식으로 콘텐츠를 추천하는지 투명하게 공개해야 합니다. 둘째는 사용자 통제권입니다. 적어도 일부는 사용자가 직접 조정할 수 있어야 합니다. "나는 20%는 내 생각과 다른 콘텐츠를 자동으로 추천받고 싶다"는 옵션을 선택하면 알고리즘이 그렇게 작동하도록 해야 합니다. 이를 강제할 수는 없지만, 최소한 선택권은 제공되어야 합니다.
| 문제점 | 현상 | 대응 방안 |
|---|---|---|
| 알고리즘 편향 | 필터 버블, 에코챔버 | 투명성 확보, 사용자 통제권 부여 |
| 음성 데이터 수집 | 대화 내용 기반 광고 노출 | 명확한 동의 절차, 정보 공개 |
| 개인 정보 활용 | 약관 미확인 동의 | 제도적 규제, 가이드라인 마련 |
이러한 문제는 개인이 물리적으로 막을 수 없습니다. 제도적으로 해결해야 합니다. 기업들이 음성 데이터를 수집하는지 투명하게 정보를 공개하고, 만약 수집한다면 명확한 동의를 받도록 법적으로 강제해야 합니다. 그렇게 하면 동의할 사람은 극소수일 것이고, 필요한 사람만 선택적으로 동의할 것입니다. 현재는 이런 절차가 없어서 문제이므로, 정부 차원의 가버넌스와 컨센서스 형성이 필요합니다.
결국 AI 기술 발전만큼이나 이 기술을 어떤 방향으로 발전시키고 통제할지에 대한 사회적 합의가 중요합니다. 기술도 만들고, 제도도 만들고, 우리가 실천도 하고, 리터러시도 키워야 합니다. 정부는 다양한 가능성을 제공하는 역할을, 개인은 그런 기회를 적극 활용해 자신의 역량을 끌어올리는 노력을 해야 합니다. 다행히 현 정부는 AI를 국정 과제의 핵심으로 두고, 단순히 기술 개발에만 돈을 쏟아붓는 것이 아니라 공론장을 통해 사람들의 생각을 모으고 정책으로 만들어내는 노력을 하고 있습니다.
AI 시대를 살아가는 우리에게 필요한 것은 학벌이나 단순 지식이 아닙니다. 물처럼 흐르되 본질을 꿰뚫는 지혜, AI의 결과물을 평가하고 좋은 것과 나쁜 것을 구분하는 능력, 그리고 AI와 협력하되 주도권을 잃지 않는 균형 감각입니다. 사용자 비평에서 언급된 최상의 선은 물과 같다는 도덕경의 구절처럼, 우리는 AI와 다투지 않으면서도 우리가 소중히 여기는 가치를 지키고 증진시키는 방향으로 나아가야 합니다. 각 시대마다 어려운 과제가 있었고, 과거 세대가 그 과제를 해결해냈듯이 우리도 AI라는 과제를 지혜롭게 풀어나가야 할 것입니다.
자주 묻는 질문 (FAQ)
Q. AI가 일자리를 완전히 대체할까요?
A. UN 보고서에 따르면 앞으로 30년간 최대 30%의 일자리 개수가 줄어들 것으로 예상되지만, 더 중요한 것은 기존 직업의 직능 변화입니다. AI가 효율적으로 처리할 수 있는 업무는 AI에게 맡기고, 인간은 AI를 감독하고 평가하며 창의적 의사결정을 하는 방향으로 역할이 변화할 것입니다. 완전 대체보다는 협력과 재교육이 핵심입니다.
Q. AI의 환각 문제를 완전히 해결할 수 있나요?
A. 현재 생성 인공지능의 아키텍처상 환각을 줄일 수는 있어도 완전히 없앨 수는 없습니다. 환각은 프로그램 버그가 아니라 기술의 특징이기 때문입니다. 대신 탐색 단계에서는 자유롭게 활용하되, 중요한 결정이나 공식 발표 시에는 반드시 사실 확인을 거쳐야 합니다. 또한 예술이나 창작 분야에서는 환각이 오히려 생산적인 도구가 될 수 있습니다.
Q. 일반인이 AI 시대에 대비하려면 어떤 역량을 키워야 하나요?
A. 가장 중요한 것은 AI의 결과물을 평가하는 능력입니다. 책을 읽고 요약하는 능력, 좋은 답과 나쁜 답을 구분하고 이유를 설명하는 능력이 핵심입니다. AI에게 구체적이고 스페시픽한 질문을 던지고, 추가 질문을 통해 더 나은 답변으로 유도하는 프롬프트 능력도 중요합니다. 또한 학교 교육부터 AI를 컨트롤하는 훈련을 시작해야 하며, 평생 학습을 통해 변화하는 직능에 적응해야 합니다.
[출처]
"학벌 필요없어요." AI시대에 주목받는 진짜 역량ㅣ지식인초대석 EP.59 (이상욱 교수) - YouTube: https://www.youtube.com/watch?v=7UDaldeFhDg