“AI 안전은 쇼였다?” 2억 달러에 군수업체와 손잡은 OpenAI
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.26 00:34

기사 3줄 요약
- 1 'AI 안전 우선' 외치던 OpenAI·앤트로픽, 군과 계약
- 2 각각 2억 달러 규모 국방부 사업 수주하며 정책 변경
- 3 AI 살상 무기 개발 우려 등 윤리적 논란 거세져
인류에게 이로운 AI를 만들겠다던 빅테크 기업들이 돌연 태도를 바꿨습니다.
한때 AI 안전과 윤리를 최우선 가치로 내세웠던 OpenAI와 앤트로픽이 거액의 군사 계약을 맺으며 논란의 중심에 섰습니다. ‘안전’이라는 허울 좋은 명분은 군사 자금 앞에서 힘없이 무너졌다는 비판이 나옵니다.
OpenAI, 갑자기 왜 태세 전환이야?
변화는 OpenAI에서 가장 먼저 시작됐습니다. 2024년, OpenAI는 사용 정책에서 ‘군사 및 전쟁’ 관련 사용 금지 조항을 슬그머니 삭제했습니다. 이후 자율 무기 개발사인 앤두릴(Anduril)과 파트너십을 맺었고, 지난 6월에는 미 국방부와 2억 달러(약 2,700억 원) 규모의 계약을 체결했습니다. OpenAI의 안전에 대한 약속이 단순한 마케팅 구호였냐는 의문이 제기되는 부분입니다.가장 안전하다던 앤트로픽마저...
AI 업계에서 가장 안전 지향적이라는 평판을 쌓아온 앤트로픽도 비슷한 길을 걷고 있습니다. 앤트로픽은 국방 및 정보 분야에 깊이 관여하는 데이터 분석 기업 팔란티어(Palantir)와 손을 잡았습니다. 심지어 OpenAI와 마찬가지로 2억 달러 규모의 미 국방부 계약을 따냈습니다. 이는 아무리 윤리를 강조하는 기업이라도 군사 자금의 유혹을 뿌리치기 어렵다는 현실을 보여줍니다. 아마존, 구글, 마이크로소프트 같은 기존 빅테크 기업들 역시 국방 및 정보용 AI 제품을 적극적으로 밀어붙이고 있습니다.AI가 살상 무기가 될 수도 있다고?
AI 나우 연구소의 수석 과학자이자 OpenAI의 전 안전 담당 엔지니어였던 하이디 클라프는 이런 상황에 깊은 우려를 표합니다. 생성 AI를 위험성이 높은 군사적 상황에 성급하게 배치하는 것은 예측 불가능한 재앙을 불러올 수 있다는 경고입니다. 악의적인 세력이 이 기술을 악용해 화학, 생물학, 방사능 또는 핵무기를 개발할 가능성도 제기됩니다. AI 혁명을 이끄는 가치가 인류의 안전이 아닌 돈과 군사적 우위가 되어서는 안 된다는 목소리가 커지고 있습니다.기업 | 주요 계약 내용 | 우려되는 점 |
---|---|---|
OpenAI | 2억 달러 국방부 계약, 앤두릴과 파트너십 | 군사 사용 금지 조항 삭제, 무기 오용 가능성 |
앤트로픽 | 2억 달러 국방부 계약, 팔란티어와 파트너십 | 안전 우선 평판 훼손, 방어용 AI 명분 약화 |
팔란티어 | 4억 달러 미 육군 계약, 9.5억 달러 영국 국방부 계약 | 개인정보 침해 및 감시 사회 우려 |

편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 기업의 군사계약, 안전과 윤리 배신인가?
배신이다
0%
0명이 투표했어요
아니다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



