“AI로 사람 죽인다?” 앤트로픽, 미 국방부 2800억 계약 거부
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.30 17:39
기사 3줄 요약
- 1 앤트로픽, 미 국방부와 AI 살상 무기 도입 두고 갈등 심화
- 2 2800억 규모 계약 중단 위기, 윤리적 가치 대립이 원인
- 3 민주적 가치 훼손 우려에 타협 없는 평행선 달리는 중
상상만 해도 끔찍한 일이 현실이 될 수도 있다는 우려가 나오고 있습니다.
인공지능(AI)이 스스로 적을 탐지하고 공격 목표를 설정하는 영화 같은 상황 말입니다.
최근 미국 국방부와 핫한 AI 기업 앤트로픽 사이에서 심상치 않은 기류가 감지되었습니다.
우리 기술은 살상용으로 못 씁니다
로이터 통신 등 주요 외신 보도에 따르면 앤트로픽과 미 국방부의 협상이 멈췄습니다. 약 2800억 원에 달하는 거액의 계약이 무산될 위기에 처한 것입니다. 앤트로픽은 챗GPT의 강력한 라이벌인 ‘클로드’를 만든 회사입니다. 이 회사는 설립 초기부터 ‘착한 AI’, ‘안전한 AI’를 강조해왔습니다. 그런데 국방부가 이들의 AI 기술을 무기 체계나 감시 용도로 쓰려하자 제동을 걸었습니다. 앤트로픽은 자신들의 기술이 사람을 해치는 데 쓰이는 것을 원치 않는다고 주장합니다.국방부, “돈 줬으면 마음대로 써야지”
반면 미 국방부의 입장은 아주 단호하고 강경합니다. 미국 법을 어기지 않는다면 민간 기업의 규칙 따위는 중요하지 않다는 것입니다. 국방부는 AI를 군사 작전이나 정보 수집에 폭넓게 활용하고 싶어 합니다. 특히 무기가 스스로 표적을 정하거나 미국 내 감시 활동에 쓰는 것도 고려 중입니다. 국방부는 거액을 들여 기술을 도입하는 만큼 사용에 제한이 있어서는 안 된다고 봅니다. 국가 안보를 위해서는 AI의 능력을 100% 활용해야 한다는 논리입니다.독재자처럼 보이기 싫은 AI 기업
다리오 아모데이 앤트로픽 CEO는 자신의 블로그를 통해 소신을 밝혔습니다. 국가 방위를 돕는 것은 찬성하지만 독재 국가들처럼 행동해서는 안 된다는 것입니다. 그는 정부가 기술을 이용해 국민을 감시하거나 폭력을 행사할 가능성을 경계했습니다. 실제로 최근 미국에서는 기술 기업들이 정부의 이민 단속 등을 돕는 것에 비판이 많습니다. 시민들이 기술의 폭력적인 사용에 대해 공포를 느끼고 있기 때문입니다. 앤트로픽은 이런 여론을 의식해 ‘윤리적 책임’을 끝까지 고수하려는 모양새입니다. 이번 갈등은 단순히 기업과 정부의 계약 문제를 넘어섰습니다. 미래 전쟁에서 AI를 어디까지 허용할 것인가에 대한 중요한 질문을 던지고 있습니다. 결국 기술의 발전과 윤리적 가치 사이에서 어떤 선택을 할지 지켜봐야겠습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 기술, 국방 목적으로 사용해도 될까?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사