“AI로 무기를 만들지 않겠다” — 오픈AI 로보틱스 수장이 짐을 쌌다

By 2026-03-08No Comments

AI가 군대의 손에 들어가는 순간, 연구자는 어디에 서야 할까. 오픈AI의 로보틱스 총책임자가 내린 선택이 실리콘밸리를 넘어 전 세계 AI 업계에 묵직한 질문을 던지고 있다.

오픈AI 로보틱스 수장, 미 국방부 계약에 반발해 전격 사임

2026년 3월, 오픈AI의 로보틱스 부문 수장 케이틀린 칼리노프스키(Caitlin Kalinowski)가 사임했다. 이유는 단 하나였다. 오픈AI가 미국 국방부(펜타곤)와 협력 계약을 체결한 것에 반대한다는 것이었다.

그는 조용히 책상을 비운 게 아니었다. 이 사임은 오픈AI 내부에서 나온 가장 공개적이고 고위급인 항의 표시 중 하나로 기록됐다. 오픈AI는 "인공 일반 지능이 전 인류에게 이로워야 한다"는 창립 이념을 내세워 왔다. 하지만 비판자들은 묻는다. 그 인류 안에 군사적 목표가 포함되는가?

[이미지: 오픈AI 본사 건물 앞, 로보틱스 연구자가 홀로 짐을 들고 나오는 장면을 상징하는 일러스트]

AI 윤리 vs. 군사 활용: 실리콘밸리 내부의 균열

이번 사건은 단순한 개인의 퇴직이 아니다. AI 업계 전반에서 점점 깊어지는 단층선을 드러낸다.

한쪽에는 AI 능력이 빠르게 발전하는 만큼 이를 안보에 활용해야 한다는 현실론이 있다. 각국 정부는 AI를 군사 드론, 자율 무기 체계, 전장 감시 인프라에 통합하기 위해 빅테크 기업들과 앞다퉈 손을 잡고 있다.

반대편에는 칼리노프스키처럼 "내가 만든 기술이 사람을 해치는 데 쓰이는 걸 원하지 않는다"는 연구자들이 있다. 이들은 AI 개발의 윤리적 책임이 단순히 논문 한 줄, 가이드라인 한 문장으로 해결될 문제가 아니라고 믿는다. 이중 용도(dual-use) 기술, 즉 민간에서도, 군에서도 쓰일 수 있는 기술의 개발에 어디까지 관여할 것인가. 이 질문은 더 이상 철학 세미나의 주제가 아니다.

한국 AI 연구자들도 주목해야 할 ‘양심 사직’의 의미

이 이야기는 한국에도 낯설지 않다. 오히려 더 가깝게 느껴질 수 있다.

한국은 세계 최고 수준의 AI·로보틱스 기술력을 보유하고 있으며, 정부와 방산 업계는 국내 AI 인재를 향한 러브콜을 점점 강화하고 있다. 아시아·태평양 지역에서 군사적 긴장이 높아지는 가운데, AI 기반 무기와 자율 시스템 개발은 더 이상 먼 나라 이야기가 아니다.

한국의 AI 연구자나 엔지니어들도 언젠가는 비슷한 선택의 기로에 설 수 있다. "기술적으로 가능하다"는 것과 "해야 한다"는 것 사이의 거리를 어떻게 설정할 것인가. 칼리노프스키의 사임은 그 질문에 대한 하나의 답이자, 우리에게 먼저 한번 생각해 보라는 신호다.

[이미지: AI 로봇 팔과 군사 드론이 나란히 놓인 연구소 내부, 윤리와 기술의 경계를 상징하는 구성]

마치며

기술을 만드는 사람이 가장 먼저 그 기술의 위험성을 안다. 그렇기 때문에 연구자의 양심 사직은 단순한 이직 뉴스가 아니다. 그것은 "우리가 어디로 가고 있는가"에 대한 내부고발이다.

AI가 더 강력해질수록, 그것을 누가 어떤 목적으로 쓰는가에 대한 물음은 더 무거워진다. 당신이라면 어떤 선택을 했을까.

관련 글

Leave a Reply