
마감 기한이 지났고, 실리콘밸리의 안전 중심 AI 연구소와 미국 군부 사이의 간극은 거대한 심연으로 변했습니다. 토요일 오전 현재, 클로드(Claude) AI 모델의 제작사인 **앤스로픽(Anthropic)**은 군에 자사 기술에 대한 무제한적 접근 권한을 부여하라는 피트 헤그세스(Pete Hegseth) 국방장관의 최후통첩을 공식적으로 거부했습니다. 이에 대한 대응으로 펜타곤(Pentagon)은 신속하게 이 회사를 "공급망 리스크(Supply Chain Risk)"로 지정하여 2억 달러 규모의 계약을 사실상 단절했으며, 인공지능의 무기화를 둘러싼 전례 없는 법적 및 윤리적 대결의 장을 마련했습니다.
이 대립은 AI 산업에 있어 역사적인 전환점이 되었습니다. 주요 AI 개발사가 자율 살상 무기(Autonomous Weapons)(autonomous weapons) 및 대규모 감시와 관련된 윤리적 "레드라인"을 지키기 위해 정부 수익과 상업적 지위를 처음으로 걸었으며, 이는 군사 기술에 대한 소위 "워크(woke, 깨어 있는 척하는)" 제약을 제거하려는 트럼프 행정부의 압박에 정면으로 도전하는 것입니다.
위기는 헤그세스 장관이 앤스로픽(Anthropic)에 항복을 요구하며 설정한 마감일인 2월 27일 금요일에 정점에 달했습니다. 이번 주 초, 헤그세스는 앤스로픽의 CEO인 **다리오 아모데이(Dario Amodei)**를 펜타곤으로 소환하여 엄중한 메시지를 전달했습니다. 클로드(Claude)가 자율 살상 체계(kill chains) 및 국내 감시에 사용되는 것을 막는 "가드레일"을 제거하지 않으면 연방 정부의 전방위적인 압박에 직면하게 될 것이라는 내용이었습니다.
협상에 정통한 소식통에 따르면, 펜타곤(Pentagon)은 강대국 간의 경쟁 시대에 미국 군대가 기업의 윤리 정책에 발목을 잡혀서는 안 된다고 주장하며 클로드의 역량에 대한 "제한 없는 접근"을 요구했습니다. 군대 내에서 "워크 문화"를 척결하겠다고 공언해 온 헤그세스는 특히 유해하거나 불법적, 비윤리적 콘텐츠 생성을 방지하기 위해 설계된 안전 시스템인 앤스로픽의 "헌법적 AI(Constitutional AI)" 프레임워크를 국가 안보의 장애물로 지목했습니다.
마감 직전에 발표한 성명에서 아모데이는 확고한 태도를 유지했습니다. CEO는 "우리는 양심상 이러한 요구에 응할 수 없습니다"라고 기록했습니다. 그는 앤스로픽이 정당한 방어 목적의 군사적 애플리케이션은 지원하지만, 두 가지 특정 사용 사례, 즉 미국 시민에 대한 대규모 국내 감시와 인간의 개입 없이 AI가 치명적인 결정을 내리는 완전 자율 타격 시스템에 대해서는 엄격한 선을 긋고 있다고 재차 강조했습니다.
이러한 거부의 결과는 금요일 밤 늦게 구체화되기 시작했습니다. 국방부(DoD)는 앤스로픽을 "공급망 리스크(Supply Chain Risk)"로 분류하기 위한 절차에 착수했습니다. 이 지정은 단순한 계약 취소보다 훨씬 더 치명적이며, 사실상 블랙리스트 역할을 합니다.
"공급망 리스크" 지정의 영향:
기술 업계에 가장 큰 경종을 울린 것은 헤그세스가 **국방물자생산법(Defense Production Act, DPA)**을 발동하겠다고 위협한 점입니다. 원래 한국 전쟁 중에 제정된 국방물자생산법은 대통령에게 민간 기업이 정부 계약을 우선시하도록 강제하고 핵심 물자의 유통을 통제할 수 있는 광범위한 권한을 부여합니다. 법률 전문가들은 지적 재산권, 특히 독점적 AI의 모델 가중치를 압수하거나 안전 프로토콜에 반하여 코드를 수정하도록 강제하기 위해 국방물자생산법을 사용하는 것은 행정권의 전례 없는 확장이라고 경고합니다.
두 진영 사이의 마찰은 마감 기한을 촉발한 화요일 회동 당시에도 극명하게 드러났습니다. 소식통들은 당시 만남을 "정중하지만 냉랭했다"고 묘사했으며, 헤그세스는 앤스로픽이 미국인의 생명보다 실리콘밸리의 추상적인 윤리를 우선시한다고 비난했습니다.
헤그세스는 앤스로픽의 불응을 다른 AI 기업들의 협조와 대조한 것으로 알려졌습니다. 그는 일론 머스크의 인공지능 회사인 xAI를 구체적으로 언급했는데, 이 회사는 이미 군사적 적용에 특별한 기술적 제한을 두지 않는 "적법한 사용" 조항에 동의했습니다. 국방장관의 주장은 AI 안전(AI Safety)(AI safety) 조치를 신중함이 아니라 미국 전투원의 힘을 약화시키는 "이데올로기적 제약"으로 규정합니다.
아모데이에게 이번 거부는 앤스로픽의 창립 미션과 일맥상통합니다. 이 회사는 업계에 만연해 있다고 믿었던 안전상의 지름길을 피하기 위해 전직 OpenAI 연구원들에 의해 설립되었습니다. 자율 타격 역량에 대한 펜타곤의 요구에 굴복하는 것은 회사의 핵심인 "장기 이익 신탁(Long-Term Benefit Trust)" 구조를 배신하는 일이 될 것입니다.
이 분쟁은 AI의 유용성과 위험에 대한 근본적으로 다른 두 가지 관점에 초점을 맞추고 있습니다. 아래 표는 계약 파기로 이어진 구체적인 쟁점들을 정리한 것입니다.
표 1: 펜타곤의 요구 vs 앤스로픽의 윤리적 경계
| 쟁점 | 펜타곤의 요구 (헤그세스 독트린) | 앤스로픽의 입장 (헌법적 AI) |
|---|---|---|
| 자율 무기 | 살상력과 의사결정 속도를 높이기 위해 AI를 "살상 체계"에 완전히 통합함. | 유의미한 인간의 통제 없이 AI가 치명적인 타격 결정을 내리는 것을 엄격히 금지함. |
| 국내 감시 | 내부 보안 및 위협 탐지를 위해 대규모 데이터를 분석하는 데 AI를 사용함. | 미국 시민에 대한 대규모 모니터링이나 반대 세력 추적에 모델을 사용하는 것을 거부함. |
| 안전 프로토콜 | 군사적 유용성을 제한하는 "이데올로기적" 필터("워크 AI"로 명명됨)를 제거함. | 오용, 편향 및 인권 침해를 방지하기 위해 안전 가드레일을 유지함. |
| 계약상 통제권 | 행정부가 정의하는 "모든 적법한 목적"을 위해 모델을 사용할 수 있는 무제한 라이선스를 가짐. | 적법성 여부와 관계없이 특정 고위험 카테고리를 명시적으로 금지하는 서비스 약관을 유지함. |
앤스로픽의 반항은 국방 부문과의 관계에서 "4대 AI 연구소" 중 고립된 처지에 놓이게 했습니다.
이러한 고립은 심각한 재무적 위험을 초래합니다. 2억 달러 규모의 계약 손실도 상당하지만, 정부 부문에서의 평판 훼손은 향후 수십억 달러의 수익 손실로 이어질 수 있습니다. 그러나 상업 부문에서 이번 행보는 정부의 과도한 간섭과 데이터 프라이버시를 경계하는 기업들에게 앤스로픽을 "신뢰할 수 있는" AI 대안으로 각인시키는 계기가 될 수 있습니다.
법적 공방은 이제 시작일 가능성이 높습니다. 만약 펜타곤이 앤스로픽의 모델 가중치를 압수하거나 코드 수정을 강제하기 위해 국방물자생산법 집행 조치를 강행한다면, 사건은 거의 확실히 대법원까지 가게 될 것입니다. 핵심적인 법적 질문은 코드가 '강요된 언론(compelled speech)'에 해당하는지, 그리고 정부가 민간 기업에 본인의 의사에 반하는 무기를 제작하도록 강제할 수 있는지 여부가 될 것입니다.
현재로서는 펜타곤의 메시지는 분명합니다. AI 주도권 경쟁에서 안전 브레이크는 기능이 아니라 결함으로 간주됩니다. 그리고 앤스로픽에게 원칙을 지킨 대가는 매우 가혹해질 것으로 보입니다.
앞으로 몇 주 동안 다른 거대 기술 기업들이 헤그세스의 "반워크" 군사 독트린에 동조할 것인지, 아니면 앤스로픽의 입장이 자신의 창조물이 통제할 수 있는 속도보다 빠르게 군사화되는 것을 두려워하는 AI 연구자들 사이에서 더 넓은 저항을 불러일으킬 것인지 결정될 것입니다.