국방부에 찍히고, 사용자에게 사랑받은 AI — Anthropic의 역설

By 2026-03-07No Comments

안트로픽(Anthropic)이 미 국방부로부터 ‘공급망 위험’ 기업으로 지정되는 굴욕을 당했다. 그런데 이상한 일이 벌어졌다. 그 직후, 클로드(Claude) 앱 신규 설치 수가 ChatGPT를 앞질렀다는 것이다. 정부에게 퇴짜를 맞은 AI가 오히려 사람들의 선택을 더 많이 받게 된 이 역설, 어떻게 읽어야 할까?

미 국방부가 Anthropic을 ‘공급망 위험’으로 지정한 이유

2026년 초, 미국 국방부는 안트로픽을 공급망 위험 기업으로 공식 지정했다. 이로 인해 약 2억 달러 규모의 정부 계약이 한순간에 무산됐다. 미 국방부가 AI 기업에 이런 딱지를 붙이는 건 이례적인 일로, 업계에 상당한 충격을 안겼다.

정확한 이유는 공개되지 않았지만, 업계에서는 크게 두 가지 해석이 엇갈린다. 하나는 안트로픽의 ‘안전 우선(safety-first)’ 철학이 국방부의 요구 사항과 근본적으로 충돌했다는 시각이다. 군사 목적의 AI는 빠른 결정, 공격적 운용을 전제로 하는데, 안트로픽이 내세우는 신중하고 제한적인 AI 배포 방식이 걸림돌이 됐을 수 있다. 다른 하나는 순수하게 정치적 판단이 개입됐다는 분석이다. 연방 AI 조달 시장은 기술력만으로 결정되지 않는 복잡한 생태계이기 때문이다.

[이미지: 미 국방부 청사 앞에 AI 기업 로고들이 줄 서 있는 개념도 — 정부 AI 조달 경쟁을 시각화한 일러스트]

2억 달러 계약 파탄 후 클로드 앱 오히려 급성장

보통 이 정도 타격이면 기업 이미지가 흔들리고 사용자 이탈로 이어진다. 그런데 클로드의 소비자 앱 신규 설치 수는 오히려 ChatGPT를 넘어섰다. 이게 단순한 우연일까?

그렇지 않을 가능성이 높다. 안트로픽이 수년간 쌓아온 ‘윤리적 AI’, ‘안전한 AI’라는 브랜드 정체성이 일반 사용자들에게는 오히려 강점으로 작용한 것으로 보인다. "군사 목적에는 맞지 않다고 했다는 AI라면, 내 데이터를 함부로 쓰지 않겠지"라는 심리가 자연스럽게 작동했을 수 있다. 정부의 낙인이 역설적으로 소비자의 신뢰 신호가 된 셈이다.

한국 사용자들 사이에서도 클로드에 대한 관심이 꾸준히 늘고 있다. 단순한 ChatGPT 대안을 찾는 것을 넘어, 어떤 가치관을 가진 AI를 쓸 것인가를 따지는 흐름이 생겨나고 있는 것이다.

정부 신뢰 vs 대중 신뢰: AI 기업의 갈림길

이번 사건은 AI 기업들이 마주한 근본적인 딜레마를 수면 위로 끌어올렸다. 정부 클라이언트와 일반 소비자, 이 두 집단은 AI에게 원하는 것이 전혀 다르다.

정부는 통제 가능성, 기밀 보안, 국가 이익 우선을 요구한다. 반면 소비자들, 특히 개인정보와 AI 윤리에 민감한 20~40대 사용자들은 투명성, 인간 중심 설계, 상업적 착취 없는 안전한 도구를 원한다. 두 마리 토끼를 동시에 잡으려다 보면 어느 쪽에도 온전히 맞출 수 없다.

이 갈림길은 한국에서도 낯설지 않다. 플랫폼 규제, 데이터 주권, 공공 AI 도입 논쟁이 이어지는 국내 맥락에서도, 이번 안트로픽 사례는 하나의 글로벌 참조점이 된다. AI 기업이 국가 권력과 어떻게 거리를 유지할 것인지, 그리고 그 거리감이 오히려 사용자의 신뢰를 만드는 역설 — 이건 한국 사회가 함께 고민해야 할 질문이기도 하다.

[이미지: 저울 위에 ‘정부 신뢰’와 ‘소비자 신뢰’가 놓인 일러스트 — AI 기업의 전략적 딜레마를 표현]

마치며

우리는 AI를 선택할 때 기능만 보지 않는다. 그 뒤에 있는 기업의 가치관, 누구의 편인지를 묻게 된다. 안트로픽이 2억 달러짜리 정부 계약을 잃고도 더 많은 사람들의 선택을 받았다는 사실은, 어쩌면 가장 좋은 마케팅은 자기 원칙을 지키는 것임을 보여주는지도 모른다.

당신이 매일 쓰는 AI 도구, 한 번쯤은 그 회사의 가치관도 들여다보는 건 어떨까요?

Leave a Reply