환영해🦉
정책/윤리

“내 AI는 살인 못해” 앤트로픽, 미 국방부와 전쟁

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2026.03.02 00:57
“내 AI는 살인 못해” 앤트로픽, 미 국방부와 전쟁

기사 3줄 요약

  • 1 앤트로픽, 미 국방부의 살상 무기 개발 요구 거부
  • 2 정부, 불응 시 안보 위협 기업 지정 및 제재 협박
  • 3 트럼프 '사용 금지' 명령에도 실전 투입 논란
AI가 스스로 판단해 사람을 공격하는 영화 같은 일이 현실이 될지도 모릅니다. 미국 국방부가 AI 기업 앤트로픽에 ‘모든 합법적 사용’을 요구하며 갈등이 폭발했습니다. 앤트로픽은 이를 ‘킬러 로봇’ 개발 허용으로 보고 단호히 거부했습니다.

킬러 로봇은 절대 안 된다

미 국방부는 앤트로픽의 AI 모델인 ‘클로드’를 군사 작전에 제한 없이 쓰길 원했습니다. 여기에는 인간의 통제 없이 적을 추적하고 사살하는 완전 자율 무기가 포함됩니다. 앤트로픽 CEO 다리오 아모데이는 “양심상 받아들일 수 없다”며 선을 그었습니다. 앤트로픽은 대량 감시나 살상 무기에 자사 기술이 쓰이는 것을 막는 ‘레드라인’을 지켰습니다. 경쟁사인 오픈AI와 xAI가 국방부의 요구를 수용한 것과는 대조적인 모습입니다. 이들은 수백조 원의 가치가 달린 국방부 계약을 잃을 위험도 감수했습니다.

정부의 강력한 압박과 보복

미 국방부는 앤트로픽을 ‘공급망 위험’ 기업으로 지정하겠다며 으름장을 놓았습니다. 이는 보통 국가 안보에 위협이 되는 기업에 붙이는 무시무시한 딱지입니다. 정부의 말을 듣지 않으면 기업 활동 자체를 막겠다는 강력한 경고인 셈입니다. 도널드 트럼프 대통령까지 나서서 연방 기관의 앤트로픽 사용 금지를 명령했습니다. 트럼프는 SNS를 통해 앤트로픽이 정부를 협박하고 있다며 강한 불만을 드러냈습니다. 월스트리트저널에 따르면 정작 이란 공습 작전에는 앤트로픽의 기술이 몰래 사용됐습니다.

윤리와 안보 사이의 딜레마

이번 사태는 기술 발전이 가져온 윤리적 딜레마를 적나라하게 보여줍니다. 기술 기업이 정부의 무리한 요구에 어디까지 저항할 수 있을지 시험대에 올랐습니다. 앤트로픽의 저항은 실리콘밸리 개발자들에게도 큰 울림을 주고 있습니다. 앞으로 AI가 전쟁의 도구가 될지 인류를 돕는 도구가 될지 결정할 중요한 시점입니다. 앤트로픽이 끝까지 신념을 지킬 수 있을지 전 세계가 주목하고 있습니다. 우리는 기술의 편의성 뒤에 숨겨진 무서운 진실을 직시해야 합니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 무기 개발, 국가 안보가 우선인가 윤리가 우선인가?

댓글 0