환영해🦉
정책/윤리

“사람 안 죽인다며?” 평화 외치던 AI, 미군 작전 투입

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2026.02.15 17:25
“사람 안 죽인다며?” 평화 외치던 AI, 미군 작전 투입

기사 3줄 요약

  • 1 미군 마두로 체포 작전에 AI 클로드 투입
  • 2 살상 무기 금지 원칙 깨고 군사적 활용 논란
  • 3 높은 정확도와 안전성이 오히려 무기화 초래
사람을 해치는 일에는 절대 쓰지 않겠다던 AI가 군사 작전에 투입되었습니다. 미군이 베네수엘라 대통령을 체포하는 과정에서 앤트로픽의 ‘클로드’를 사용했다는 사실이 밝혀졌습니다. 가장 안전하고 윤리적인 AI를 표방하던 기업이라 충격이 큽니다.

전쟁터로 끌려간 평화주의 AI

월스트리트저널(WSJ) 등 주요 외신에 따르면 미군은 지난달 베네수엘라에서 대규모 작전을 펼쳤습니다. 니콜라스 마두로 전 대통령의 신병을 확보하기 위한 작전이었습니다. 이 과정에서 150대가 넘는 항공기가 동원되었습니다. 방대한 데이터를 실시간으로 분석하고 공격을 조율하기 위해 AI의 도움이 절실했습니다. 미군은 이 복잡한 데이터를 처리하는 데 앤트로픽의 AI 모델인 ‘클로드’를 활용했습니다. 데이터 분석 기업 팔란티어의 시스템을 거쳐 작전에 투입된 것입니다.

펜타곤은 왜 클로드를 선택했나

미 국방부가 수많은 AI 중에서 하필 클로드를 선택한 이유는 명확합니다. 다른 AI 모델에 비해 헛소리를 하거나 없는 사실을 지어내는 ‘환각 현상’이 적었기 때문입니다. 기밀 작전에서는 정확도가 생명입니다. 미군은 클로드가 고위험 임무를 계획하고 관리하는 데 가장 적합하다고 판단했습니다. 결국 가장 안전하게 설계된 AI라는 점이 오히려 군사 작전에 쓰이게 된 결정적인 이유가 되었습니다. 아이러니하게도 평화를 위해 만든 안전장치가 전쟁의 도구로 쓰인 셈입니다.

무너진 윤리 강령과 내부의 반발

이번 사건은 앤트로픽이 그동안 강조해 온 ‘헌법 AI’ 철학과 정면으로 배치됩니다. 앤트로픽은 무기 개발이나 감시, 폭력 행위에 자사 AI를 쓰는 것을 엄격히 금지해 왔습니다. 하지만 현실은 달랐습니다. 전문가들은 이번 사건을 두고 “AI 업계가 돌아올 수 없는 강을 건넜다”라고 평가합니다. 브루스 슈나이어 같은 테크 정책 전문가는 쓴소리를 아끼지 않았습니다. 베네수엘라에서 중요했던 유일한 헌법은 펜타곤의 타격 명단뿐이었다고 비판했습니다.

앞으로 AI는 어디로 가는가

앤트로픽 측은 특정 작전 사용 여부에 대해 확인해 줄 수 없다는 입장입니다. 다만 모든 사용자는 회사의 정책을 지켜야 한다고 원론적인 답변만 내놓았습니다. 이번 사례는 기업이 아무리 윤리적인 원칙을 세워도 국가 안보라는 이름 앞에서는 무력할 수 있음을 보여줍니다. 미 국방부는 앞으로도 전쟁에 도움이 되는 AI라면 적극적으로 쓰겠다는 입장을 보이고 있습니다. 이제 우리는 AI가 전쟁의 도구가 되는 것을 막을 수 있는지 진지하게 고민해야 합니다. 기술의 발전 속도만큼 윤리적 기준에 대한 사회적 합의가 시급해 보입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI의 군사 작전 투입, 찬성 vs 반대?

댓글 0