인공지능 기업이 정부와 싸운다면, 그것도 세계 최강의 군사력을 가진 미국 국방부를 상대로 법정 다툼을 벌인다면 어떨까요. 이건 영화 속 이야기가 아닙니다. 바로 지금, 클로드(Claude)를 만든 앤트로픽(Anthropic)에서 실제로 일어나고 있는 일입니다.
펜타곤이 AI 기업을 ‘공급망 위협’으로 지목한 이유
2026년 초, 미국 국방부(DoD)는 앤트로픽을 공식적으로 ‘공급망 위협(supply-chain risk)’ 기업으로 지정했습니다. 이 딱지는 보통 외국 적대 세력이나 보안 취약점이 있는 기업에 붙이는 것입니다. 그런데 이번 대상은 미국 내에서 AI 안전성을 가장 진지하게 연구하는 회사 중 하나입니다.
발단은 앤트로픽과 국방부 간의 계약 협상이 결렬되면서였습니다. 국방부는 앤트로픽의 AI를 자율 무기 시스템에 활용하고 싶었지만, 앤트로픽은 이를 거부했습니다. 협상이 무너지자 국방부는 앤트로픽에 ‘위협 기업’이라는 낙인을 찍었습니다. 계약을 거절했다는 이유로요.
[이미지: 미국 국방부 청사(펜타곤)와 AI 기업 로고가 대비된 일러스트]
자율 무기 개발 거부 — 앤트로픽의 윤리적 결단
앤트로픽 CEO 다리오 아모데이(Dario Amodei)는 즉각 소송을 예고했습니다. 그는 이번 법적 대응을 단순한 기업 이익 보호가 아닌, AI 거버넌스와 군사 윤리에 대한 원칙적인 싸움으로 규정했습니다.
앤트로픽이 자율 무기 활용에 반대하는 입장은 어제오늘의 이야기가 아닙니다. 회사는 설립 초기부터 AI의 안전하고 책임 있는 개발을 핵심 가치로 내세워 왔습니다. 스스로 판단해 사람을 공격하는 무기에 자사의 AI가 탑재되는 것은, 그들이 생각하는 ‘안전한 AI’의 정의와 근본적으로 충돌합니다.
세계 최강대국의 군사 조직을 상대로 "안 되겠습니다"라고 말하는 것. 그 결단이 얼마나 무거운 것인지는 충분히 상상할 수 있습니다.
AI 기업과 국가 권력의 충돌, 전 세계가 주목하다
법학자와 정책 전문가들은 이 사건을 AI 거버넌스 역사상 전례 없는 충돌로 보고 있습니다. 핵심 질문은 이것입니다. 민간 AI 기업이 윤리적 이유로 군사 계약을 거절할 권리가 있는가? 그리고 정부는 거절한 기업에 어떤 방식으로 대응해야 하는가?
이 판결이 어떻게 나오든, 그 결과는 미국을 넘어 전 세계 AI 산업에 기준점이 될 것입니다. 한국도 예외가 아닙니다. 우리나라 역시 AI 기술과 방위산업을 빠르게 키워가고 있습니다. 국내 AI 기업들이 언젠가 비슷한 압력 앞에 섰을 때, 어떤 선택을 할 수 있을지 — 아니, 어떤 선택을 해야 하는지 — 이 사건은 미리 생각해보게 만듭니다.
[이미지: AI 윤리 거버넌스를 둘러싼 기업·정부·사회의 이해관계 다이어그램]
마치며
기술이 강해질수록, 그것을 ‘어디에 쓰지 않겠다’고 말하는 힘도 중요해집니다. 앤트로픽의 싸움은 단지 한 기업의 분쟁이 아닙니다. AI 시대에 기업의 가치관이 어디까지 지켜질 수 있는지를 시험하는 역사적 순간입니다. 이 소송의 결말이 어떻게 되든, 우리는 이미 중요한 질문 하나를 얻었습니다. 당신이라면, 어떤 선택을 했을까요?



