Google DeepMind CEO 데미스 하사비스, OpenAI의 조기 ChatGPT 광고 도입에 의문 제기
데미스 하사비스는 OpenAI가 ChatGPT에 광고를 테스트하기로 한 결정에 놀라움을 표하며 사용자 신뢰와 보조 도구의 AI 수익화에서의 역할에 대한 우려를 강조했습니다.

인공지능의 지형이 다시 한번 급격하게 변화했습니다. 2026년 가속화되는 "모델 전쟁(Model Wars)"에서 우위를 점하기 위한 결정적인 움직임으로, 구글(Google)은 공식적으로 Gemini 3.1 Pro를 출시했습니다. 이 새로운 플래그십 모델은 단순한 점진적 업데이트가 아닙니다. 이는 고도화된 추론(Reasoning)을 향한 아키텍처의 근본적인 변화를 의미하며, 업계에 충격을 준 경이로운 성능 도약을 실현했습니다.
Google DeepMind에서 개발한 Gemini 3.1 Pro는 전작 출시 후 불과 몇 달 만에 등장했지만, 세대 간의 격차를 보여주는 성능 지표를 자랑합니다. 핵심적인 성과는 추상적 추론과 일반화 능력을 엄격하게 테스트하는 ARC-AGI-2 벤치마크에서의 성능으로, Gemini 3 Pro의 점수를 두 배 이상 경신했습니다. 광범위한 주요 벤치마크에서 OpenAI의 GPT-5.2 및 Anthropic의 Claude Opus 4.6과 같은 경쟁 모델을 능가함으로써, 구글은 "심층 사고(Deep Think)" 추론 모델의 시대가 진정으로 도래했음을 알리고 있습니다.
수년 동안 추상화 및 추론 코퍼스(Abstraction and Reasoning Corpus, ARC)는 대규모 언어 모델(Large Language Models, LLM)에게 거대한 장벽이었습니다. 방대한 데이터셋에서의 암기나 패턴 매칭에 보상을 주는 일반적인 벤치마크와 달리, ARC는 모델이 적은 수의 사례를 통한 논리적 귀납(few-shot logical induction)을 사용하여 새로운 시각적 퍼즐을 풀 것을 요구합니다. 이는 범용 인공지능(Artificial General Intelligence, AGI)을 향한 진정한 유동적 지능을 측정하는 대리 지표로 널리 간주됩니다.
업데이트된 ARC-AGI-2 벤치마크에서 Gemini 3.1 Pro의 성능은 역사적이라고 할 수 있습니다. 이 모델은 검증된 점수 **77.1%**를 기록했습니다. 이를 비교해 보면, 이전 버전인 Gemini 3 Pro는 31.1%를 기록한 반면, OpenAI의 GPT-5.2는 52.9%로 크게 뒤처져 있습니다.
이러한 도약은 구글이 "심층 사고(Deep Think)" 기능을 핵심 모델 아키텍처에 직접 통합한 결과입니다. 2025년에 주목받았던 "생각의 사슬(Chain of Thought)" 방법론과 유사하게, Gemini 3.1 Pro는 최종 출력을 생성하기 전에 복잡한 문제를 분해하는 내부 독백 프로세스를 활용합니다. 하지만 이전의 래퍼(wrapper) 기반 방식과 달리, 이러한 추론은 모델 학습의 본질적인 부분으로 포함되어 있어 과거 AI를 당혹스럽게 했던 문제들에 대해 더 창의적이고 정확한 솔루션을 가능하게 합니다.
ARC-AGI-2가 모델의 추론 능력을 강조하는 반면, Gemini 3.1 Pro의 우위는 전통적 및 현대적 벤치마크 제품군 전체로 확장됩니다. 구글의 기술 보고서는 이 신규 모델을 현재의 강자인 OpenAI의 GPT-5.2 및 Anthropic의 Claude Opus 4.6과 비교합니다.
다양한 기초 과학 및 인문학 분야에서 전문가 수준의 지식을 측정하도록 설계된 테스트인 Humanity’s Last Exam에서 Gemini 3.1 Pro는 **44.4%**의 점수를 확보하여 Claude Opus 4.6(40.0%)과 GPT-5.2(34.5%)를 확연히 앞질렀습니다. 이는 구글의 모델이 추상적인 퍼즐에만 강한 것이 아니라, 복잡한 도메인 지식에 대해 더 깊고 정확한 검색 및 합성 메커니즘을 보유하고 있음을 시사합니다.
대학원 수준의 추론 영역을 측정하는 GPQA Diamond에서는 경쟁이 더 치열했습니다. Gemini 3.1 Pro는 **94.3%**를 기록하며 GPT-5.2(92.4%)와 Claude Opus 4.6(91.3%)을 간발의 차로 제쳤습니다. 이러한 점진적이지만 일관된 리드는 고위험 학술 및 전문 시나리오에서 이 모델의 신뢰성을 강조합니다.
다음 표는 주요 업계 지표에 따른 이 선도 모델들의 비교 성능을 상세히 보여줍니다.
| 지표 (Metric) | Gemini 3.1 Pro | GPT-5.2 | Claude Opus 4.6 |
|---|---|---|---|
| ARC-AGI-2 (추론) | 77.1% | 52.9% | 68.8% |
| Humanity's Last Exam (일반 지식) | 44.4% | 34.5% | 40.0% |
| GPQA Diamond (대학원 수준) | 94.3% | 92.4% | 91.3% |
| MMLU (다중 작업 언어 이해) | 92.6% | 89.6% | 91.1% |
| SWE-Bench Verified (소프트웨어 공학) | 80.6% | 80.0% | 80.8% |
Gemini 3.1 Pro가 일반 추론 및 지식 분야에서 왕좌를 차지했지만, 소프트웨어 공학 패권을 위한 전투는 여전히 치열합니다. 실제 GitHub 이슈를 해결하는 모델의 능력을 평가하는 SWE-Bench Verified 벤치마크에서 Gemini 3.1 Pro는 **80.6%**를 기록했습니다. 이는 Gemini 3 Pro(76.2%)에 비해 크게 향상된 수치이며 선두 그룹과 대등한 수준이지만, 80.8%로 1위를 지키고 있는 Claude Opus 4.6에는 근소하게 뒤처집니다.
그러나 SWE-Bench Pro (Public) 데이터셋에 대한 구글의 투명한 공개는 경쟁의 강도를 드러냅니다. Gemini 3.1 Pro는 54.2%를 기록했지만, 56.8%를 달성한 OpenAI의 특화 모델 GPT-5.3-Codex에 밀렸습니다. 이러한 차이는 엇갈리는 시장 전략을 보여줍니다. 구글은 모든 분야에서 뛰어난 일반화된 "사고형" 모델을 최적화하고 있는 반면, 경쟁사들은 코딩이나 창의적 글쓰기를 위해 고도로 전문화된 에이전트로 모델 라인을 분화하기 시작했습니다.
그럼에도 불구하고 구글 생태계를 사용하는 일반 개발자들에게 Android Studio 및 Vertex AI와 같은 도구에 Gemini 3.1 Pro가 통합되는 것은 상당한 생산성 향상을 약속합니다. 단순히 구문을 자동 완성하는 것이 아니라 코드베이스를 통해 "추론"하는 모델의 능력은 디버깅 시간을 크게 단축할 것으로 예상됩니다.
구글은 사용자들이 즉시 Gemini 3.1 Pro를 사용할 수 있도록 공격적으로 움직이고 있습니다. 현재 이 모델은 Gemini 앱 내의 "심층 사고(Deep Think)" 기능을 지원하며, Gemini API를 통해 개발자들에게 제공됩니다.
NotebookLM에 포함된 점은 특히 주목할 만합니다. Humanity’s Last Exam에서 얻은 모델의 44.4% 점수와 NotebookLM의 그라운딩(grounding) 기능을 결합함으로써, 구글은 이 도구를 최고의 연구 보조 도구로 포지셔닝하고 있습니다. 초기 데모에서는 모델이 수백 편의 학술 논문을 일관성 있고 참신한 가설로 합성하는 모습을 보여주었습니다. 이는 이전의 덜 유능한 모델들에서는 환각(hallucination) 현상이 발생했던 작업입니다.
Gemini 3.1 Pro의 출시는 중요한 시점에 이루어졌습니다. 2025년 말 내내 OpenAI의 GPT-5.2가 추론 능력의 정체로 인해 Anthropic과 구글에 시장 점유율을 잃고 있다는 보고가 돌았습니다. 업계 내부자들은 OpenAI의 상황을 "코드 레드(Code Red)"로 묘사했으며, 샘 알트만(Sam Altman) CEO는 차세대 프런티어 모델의 출시 일정을 앞당기도록 압박하고 있는 것으로 알려졌습니다.
Gemini 3.1 Pro의 등장은 "추론 우선(reasoning-first)" 접근 방식의 타당성을 입증합니다. 단 한 세대 만에 추론 점수를 두 배로 높일 수 있음을 증명함으로써(3 Pro에서 3.1 Pro로), 구글은 이전에 AI 발전을 지배했던 스케일링 법칙(scaling laws)에 도전했습니다. 이제는 단순히 더 많은 연산량과 데이터의 문제가 아닙니다. 모델이 그 데이터를 어떻게 처리하느냐의 문제입니다.
미묘한 차이와 안전성으로 인기를 끌었던 Anthropic의 Claude Opus 4.6은 이제 수학적으로 더 정밀한 직접적인 경쟁자에 직면하게 되었습니다. SWE-Bench Verified에서의 접전은 Claude가 여전히 최고의 코딩 어시스턴트이지만, 구글이 순수 논리 분야에서 앞서 나가는 동시에 그 격차를 좁혔음을 시사합니다.
2026년이 전개됨에 따라 초점은 "챗봇"에서 "추론 에이전트(reasoning agents)"로 이동하고 있습니다. Gemini 3.1 Pro는 올해의 첫 번째 주요 포성으로, OpenAI와 DeepSeek가 개발 중인 모델들에 대해 높은 기준을 제시했습니다. 기업과 개발자들에게 모델의 선택은 브랜드 충성도보다는 특정 사용 사례에 대한 특정 벤치마크 성능에 달려 있게 되었습니다.
복잡한 논리적 추상화를 탐색하는 능력과 구글 워크스페이스(Google workspace)와의 긴밀한 통합을 갖춘 Gemini 3.1 Pro는 현재 시장에서 가장 유능한 범용 AI입니다. 이제 질문은 경쟁사들이 대응할 것인지가 아니라, 구글이 방금 넓혀 놓은 추론의 격차를 얼마나 빨리 메울 수 있을 것인가입니다.