“전쟁 승패를 AI가 결정?” 미군 장성이 챗GPT에 빠진 진짜 이유
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.10.16 07:52

기사 3줄 요약
- 1 미군 장성, 군사 의사결정에 AI 챗봇 활용 공식 인정
- 2 AI '환각' 현상에 따른 잘못된 군사 작전 우려 증폭
- 3 미 국방부, 인간 통제 강조하며 AI 윤리 지침 마련
미군의 한 고위 장성이 인공지능(AI) 챗봇을 군사적 의사결정에 깊숙이 활용하고 있다고 밝혀 큰 파장을 일으키고 있습니다. 이는 AI가 단순한 행정 도구를 넘어, 실제 작전과 전략을 짜는 군 지휘관의 핵심 참모 역할을 하기 시작했다는 신호탄으로 해석됩니다.
최근 열린 미 육군 협회 콘퍼런스에서 윌리엄 '행크' 테일러 소장은 특정 AI 챗봇을 "Chat(챗)"이라는 애칭으로 부르며 매우 가깝게 지낸다고 말했습니다. 그는 현재 한국에 주둔 중인 미 8군을 지휘하며, AI를 군수물자 계획과 작전 목적을 위한 예측 분석에 정기적으로 사용하고 있다고 밝혔습니다.
진짜 AI한테 작전을 물어본다고?
테일러 소장의 발언은 AI가 단순 보고서 작성을 돕는 수준을 넘어섰다는 것을 보여줍니다. 그는 자신뿐만 아니라 병사 개개인의 의사결정 능력을 향상시키기 위해 AI로 모델을 만들고 있다고 설명했습니다. 개인의 결정이 조직 전체에 미치는 영향을 고려해 최선의 판단을 내리도록 돕는 훈련입니다. 이러한 흐름은 미 육군 전체의 방향과 일치합니다. 미 육군은 지난 5월, 보도자료 작성이나 인사 관리 같은 행정 업무를 효율화하기 위해 '아미 엔터프라이즈 LLM 워크스페이스'라는 AI 플랫폼을 공식 출시했습니다. 행정으로 시작된 AI 도입이 이제는 지휘관의 전략적 판단 영역까지 확대된 셈입니다.근데 AI가 거짓말하면 어떡해?
가장 큰 우려는 AI의 '환각 현상'입니다. 환각 현상이란 AI가 실제로는 없는 정보를 진짜인 것처럼 꾸며서 대답하는 치명적인 오류를 말합니다. 만약 군 지휘관이 AI가 만든 가짜 정보에 기반해 작전 결정을 내린다면, 그 결과는 상상조차 하기 힘든 재앙이 될 수 있습니다. 이러한 우려 속에서, 챗GPT를 만든 OpenAI가 2024년 1월 사용 정책에서 '군사 및 전쟁 용도' 금지 조항을 삭제한 사실은 논란을 더욱 키웠습니다. 물론 무기 개발이나 사용은 여전히 금지하고 있지만, 군사적 활용의 문을 열어준 것 아니냐는 비판이 제기됩니다.그럼 앞으로 전쟁은 AI가 다 하는 거야?
아직 영화 '터미네이터' 같은 상황을 걱정하기는 이릅니다. 2023년 미 국무부는 AI를 군사적으로 사용할 때 지켜야 할 원칙을 발표했습니다. 핵무기 사용과 같은 중대한 결정은 반드시 인간이 통제해야 하며, 오작동하는 AI 시스템은 즉시 멈출 수 있어야 한다는 내용이 핵심입니다. 기술적 매력과 별개로 현실적인 문제도 있습니다. 미 육군 정보책임자(CIO)는 "스프레드시트로 간단히 해결할 문제를 굳이 비싼 돈을 들여 AI로 처리하는 경우가 있다"고 지적했습니다. 기술의 '멋'보다는 실제 효율성과 비용을 따져봐야 한다는 냉정한 목소리도 나오고 있습니다. 결론적으로 미군의 AI 도입은 거스를 수 없는 거대한 흐름입니다. 하지만 AI의 기술적 한계와 윤리적 딜레마는 반드시 풀어야 할 숙제입니다. 인류는 이 강력한 도구를 어떻게 통제하고 활용할 것인지 중대한 기로에 서 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI의 군사적 활용, 찬성하시나요?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



