
2025년은 기업들이 AI를 실험하고 개념을 증명하는 해였습니다. 하지만 GAEA AI CEO Graeme Scott은 2026년이 진짜 전환점이 될 것이라고 강조합니다. 단순한 효율성 향상을 넘어, AI가 실제 비즈니스 문제를 해결하고 신뢰와 투명성을 확보하는 해가 될 것이라는 전망입니다. 이 글에서는 Graeme Scott의 통찰을 바탕으로 기업이 2026년에 주목해야 할 AI 전략의 핵심 요소들을 살펴봅니다.
2025년 AI 도입의 교훈과 Agentic AI의 부상
2025년은 기업들이 AI를 본격적으로 실험한 해였지만, 많은 개념 증명(Proof of Concept)이 실패로 끝났습니다. Graeme Scott은 이러한 실패의 주된 원인이 "어떤 비즈니스 문제를 해결할 것인가"보다 "이 멋진 기술을 어떻게 활용할까"에 초점을 맞췄기 때문이라고 지적합니다. 많은 기업들이 LLM(대규모 언어 모델)을 도입하면서 이메일 작성 속도를 높이는 등 표면적 효율성에만 집중했지만, 실제로는 데이터 주권, 보안, 신뢰성 같은 핵심 요소들을 간과했습니다. 특히 FOMO(fear of missing out) 심리가 많은 기업들을 성급한 결정으로 이끌었습니다. 대형 기술 기업들이 주도한 마케팅 내러티브에 따라 기존 인프라를 포기하고 클라우드 기반 AI 솔루션으로 전환했지만, 이는 보안상 큰 위험을 초래했습니다. 한 대형 운영체제 회사가 OS 레벨에서 AI를 구현했다가 기업 고객들이 대거 이탈하거나 구버전으로 회귀한 사례는 이러한 문제를 잘 보여줍니다. 2026년에는 Agentic AI가 중요한 대안으로 부상할 것입니다. Agentic AI는 특정 업무 영역을 분리하여 보호할 수 있게 하고, 전문 지식을 확장 가능하게 만들며, 다양한 형태의 AI를 연결할 수 있게 합니다. 모든 데이터를 하나의 거대한 시스템에 집중시키는 방식과 달리, 분산 아키텍처를 통해 보안과 가시성, 신뢰를 유지할 수 있습니다. IBM의 Simitro가 언급했듯이, 개념 증명 단계에서는 작동하던 솔루션이 10만 명의 고객으로 확장되면서 한 나라 규모의 비용이 발생하는 문제를 피할 수 있는 방법이기도 합니다. 하지만 Agentic AI라고 해서 모두 같은 것은 아닙니다. 핵심은 실제 비즈니스 문제를 해결하기 위해 적용되는가, 아니면 단순히 최신 유행어이기 때문에 사용하는가입니다. 전자의 경우에만 진정한 가치를 창출할 수 있습니다. 기업들은 자신들의 고유한 데이터를 보호하면서도 AI의 장점을 활용할 수 있는 구조를 만들어야 하며, 이것이 2026년의 핵심 과제가 될 것입니다.
| AI 접근 방식 | 2025년 주류 방식 | 2026년 권장 방식 |
|---|---|---|
| 데이터 관리 | 중앙 집중형 클라우드 | 분산형 Agentic 구조 |
| 주요 목표 | 단기 효율성 | 비즈니스 문제 해결 |
| 의사결정 기준 | 기술 트렌드 | 신뢰성과 투명성 |
LGM과 데이터 주권: 시공간 기반 AI의 혁신
Graeme Scott이 강조하는 또 다른 핵심 개념은 Law Geotemporal Model(LGM)입니다. 기존의 AI 모델들은 정적 데이터에 기반합니다. 대량의 데이터를 수집하고, 모델을 훈련시키고, 그 모델을 사용하는 방식인데, 이는 생성된 순간부터 이미 구식이 됩니다. 반면 LGM은 시간과 공간을 고려하여 실시간으로 세계를 이해합니다. 현실 세계는 끊임없이 변화합니다. 오늘 Newcastle에서는 눈이 내리다가 햇빛이 비치고, 동시에 Sao Paulo는 여름이고 Geneva는 겨울일 수 있습니다. 모든 것이 시간과 공간의 맥락 속에서 유동적으로 존재합니다. LGM은 이러한 맥락을 실시간으로 포착하여, 과거의 패턴을 분석하고 미래를 예측할 수 있게 합니다. 예를 들어, 한 기업이 다섯 개 도시에서 사업을 운영한다면, LGM은 그 다섯 도시를 실시간으로 관찰할 뿐만 아니라, 유사한 인구 구성, 연령대, 사회경제적 프로필을 가진 다른 도시들을 식별할 수 있습니다. 이를 통해 기업이 미처 인식하지 못했던 잠재 시장을 발견할 수 있습니다. 위험 관리 측면에서도, 한 위치에 대한 종합 보고서를 작성하는 데 3개월이 걸리던 작업을 수만 개의 위치에 대해 실시간으로 수행할 수 있습니다. 데이터 주권 문제도 중요합니다. 영국의 데이터는 영국에, 미국의 데이터는 미국에 있어야 한다는 원칙은 법적 요구사항일 뿐만 아니라 비즈니스 자산 보호의 핵심입니다. 많은 기업들이 자신들의 가장 귀중한 자산인 데이터를 대형 클라우드 데이터 센터에 넘겨주면서 통제권을 잃고 있습니다. 고객 정보가 다른 고객들의 정보와 섞이고, 그들의 고객 정보도 함께 섞이는 구조는 매우 위험합니다. LGM과 같은 접근 방식은 기업이 자체 데이터를 보호하면서도, 신뢰할 수 있는 검증된 데이터 소스를 활용하여 유동적 방식으로 작동할 수 있게 합니다. 수백만, 수십억 개의 결과를 실시간으로 고려하면서도 효율성을 극대화할 수 있습니다. 이는 단순히 과거 데이터를 기반으로 한 일반화된 모델보다 훨씬 더 구체적이고 맥락에 맞는 인사이트를 제공합니다.
휴먼 인 더 룹: AI는 대체가 아닌 증강의 도구
AI가 인간의 일자리를 대체할 것이라는 두려움은 모든 산업, 모든 수준에서 실재합니다. 하지만 Graeme Scott은 인간이 루프 안에 있어야 한다는 점을 반복적으로 강조합니다. 왜냐하면 우리는 인간 세계에 살고 있기 때문입니다. 기술의 목적은 항상 인간에게 봉사하는 것이었습니다. 증기 기관부터 바퀴의 발명, 인공지능, 휴대전화 기술에 이르기까지 모든 기술의 핵심은 인간입니다. 인간의 한계는 규모에 있습니다. 한 사람이 동시에 100개 장소를 관찰하고 이해하며 각각에 주의를 기울일 수는 없습니다. 하지만 특정 위치에서 수십 년의 경험을 활용하여 뉘앙스, 감정, 분위기를 이해하는 능력은 인간이 훨씬 뛰어나며, 앞으로도 오랫동안 그럴 것입니다. 인간 경험은 간과될 수 없는 가치입니다. 예를 들어, 행동 탐지 경찰관(Behavioural Detection Officers)의 경험과 지식을 CCTV 카메라의 비전 AI에 적용하여 테러나 범죄를 예방할 수 있습니다. AI가 동시에 10,000개 장소를 모니터링하면서 의심스러운 행동을 탐지하고, 실제 사람들에게 알림을 보내면, 그들이 "나도 그렇게 인식한다. 동의한다. 안전하게 개입할 기회가 있다"고 판단할 수 있습니다. 이것이 바로 인간 역량의 합리적이고 논리적인 증강입니다. 고객 서비스 분야에서도 AI가 인간을 완전히 대체한 사례들을 보면, 처음에는 즉각적인 비용 절감이 나타나지만 12~18개월 후에는 고객 만족도 하락이 관찰됩니다. 고객 유지율이 떨어지면 마케팅 비용이 증가하므로 결국 잘못된 경제 논리입니다. 인간은 일하고, 도전받고, 창의적이기를 원합니다. AI가 모든 사람의 일자리를 빼앗는다는 것은 단순화된 주장이며, 실제로는 사람들이 자신의 미래를 만들어갈 것입니다. 교육 부족은 종종 두려움으로 이어집니다. 기업의 최고인사책임자(Chief People Officer)나 CEO는 직원들에게 AI가 무엇을 실제로 해결할 수 있는지 교육해야 합니다. 비효율적이고 바람직하지 않지만 대규모로 수행되어야 하는 작업을 AI가 더 잘 처리할 수 있다면, 그것은 논리적이고 합리적이며 정당합니다. 하지만 단기적 손익을 개선하기 위해 고객을 소외시킨다면 그것은 말이 되지 않습니다. Graeme Scott은 Chief Artificial Intelligence Augmentation Officer라는 새로운 역할을 제안합니다. 이 역할은 AI를 이해하고, 비즈니스를 이해하며, 사람을 이해하고, 무엇보다 직원, 고객, 공급업체 간의 관계가 어떻게 상호작용하여 훌륭한 결과를 창출하는지를 비판적으로 이해하는 사람이 맡아야 합니다. 이는 사람 중심 비즈니스에 대한 약속이며, 2026년 이후에는 AI의 무책임한 사용에 대한 반발로 인해 "우리가 삶에서 원하는 것, 우리가 가치 있게 여기는 것"을 중시하는 커뮤니티가 형성될 것입니다.
| 영역 | 인간의 강점 | AI의 강점 | 증강 효과 |
|---|---|---|---|
| 의사결정 | 맥락 이해, 감정 파악 | 대규모 데이터 분석 | 정확하고 공감적인 판단 |
| 관찰 | 세밀한 뉘앙스 인식 | 동시 다지점 모니터링 | 실시간 위험 탐지 |
| 고객 관계 | 신뢰 구축, 공감 | 24/7 대응 가능 | 지속적이고 인간적인 서비스 |
결국 2026년은 실험에서 실행으로, 가능성에서 결과로 이동하는 해가 될 것입니다. 기업들은 신뢰와 투명성을 확보하고, 자체 데이터를 보호하며, 인간의 전문성을 증강하는 AI 전략을 구축해야 합니다. AI는 대안일 수도, 재앙일 수도 있습니다. 핵심은 어떻게 사용하느냐에 달려 있으며, 인간 중심의 사려 깊은 접근만이 지속 가능한 성공을 가져올 것입니다. Graeme Scott의 통찰은 기술 자체보다 그것을 어떻게 활용하느냐가 더 중요하다는 진리를 다시 한번 상기시킵니다.
자주 묻는 질문 (FAQ)
Q. 중소기업은 AI 솔루션을 직접 개발해야 할까요, 아니면 구매해야 할까요? A. Graeme Scott은 중간 규모 기업의 경우 기성 솔루션을 구매하는 것을 권장합니다. 대기업의 경우에는 구매한 후 자사의 고유한 요구사항에 맞게 증강하는 방식이 효과적입니다. 핵심은 비즈니스 문제를 먼저 정의하고, 그에 맞는 솔루션을 선택하는 것입니다. Q. LLM의 테스트 점수가 높으면 좋은 AI 솔루션이라고 볼 수 있나요? A. 아닙니다. Graeme Scott은 LLM 테스트 점수를 허영 지표(vanity metric)로 간주합니다. 테스트를 통과하기 위해 설계된 시스템은 교육 시스템의 문제점과 유사하게, 실제 세계의 원인과 결과를 제대로 반영하지 못합니다. 실제 비즈니스 성과와 신뢰성이 진정한 측정 기준입니다. Q. 2026년에 AI가 주도하는 유니콘 기업이 탄생할 가능성이 있나요? A. Graeme Scott은 회의적입니다. 만약 AI가 완전히 운영하는 비즈니스라면 인간 수혜자가 없다는 것을 의미하기 때문입니다. 인간의 가치는 여전히 핵심이며, 대부분의 성공적인 AI 비즈니스는 인간이 주도하고 AI가 증강하는 형태가 될 것입니다. --- 출처: GAEA Talks - From Pilots to Profit: Enterprise AI Insight for 2026 with GAEA AI CEO Graeme Scott https://www.youtube.com/watch?v=TBej6rfzKXU