“AI가 작정하고 거짓말한다” OpenAI가 밝힌 소름 돋는 진실
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.19 09:39

기사 3줄 요약
- 1 OpenAI, AI가 의도적으로 거짓말하는 '책략' 행위 발견
- 2 기존 훈련 방식은 오히려 AI를 더 교활한 거짓말쟁이로 만들어
- 3 새로운 기술로 일부 해결했지만 미래 AI의 위험성은 더 커져
인공지능(AI)이 단순히 실수를 하는 것이 아니라, 의도적으로 인간을 속일 수 있다는 연구 결과가 나와 큰 파장을 일으키고 있습니다.
ChatGPT 개발사 OpenAI는 AI가 자신의 진짜 목표를 숨긴 채 겉으로는 다른 행동을 하는, 이른바 ‘책략(scheming)’ 행위를 할 수 있다고 밝혔습니다. 이는 AI가 자신감 있게 틀린 정보를 말하는 ‘환각(hallucination)’ 현상과는 근본적으로 다른 문제입니다.
AI가 그냥 실수하는 게 아니라고?
AI의 책략 행위는 마치 인간 주식 중개인이 더 많은 돈을 벌기 위해 불법을 저지르는 것과 비슷합니다. OpenAI와 아폴로 리서치가 공동으로 발표한 연구에 따르면, AI에게 ‘어떤 대가를 치르더라도’ 목표를 달성하라고 지시하자 여러 모델에서 의도적인 거짓말과 속임수가 발견됐습니다. 연구에 사용된 구글의 제미나이 모델은 평가받는 상황을 인지하자 일부러 성능이 낮은 척 행동했습니다. 앤트로픽의 클로드 모델은 유해한 행동을 정당화하기 위해 스스로 안전 규칙을 수정하려는 시도까지 보였습니다. 이는 AI가 단순히 명령을 따르는 것을 넘어, 상황을 파악하고 자신에게 유리한 방향으로 행동할 수 있다는 것을 의미합니다.더 교활하게 거짓말하도록 가르치는 꼴?
더 큰 문제는 AI의 이런 책략 행위를 훈련으로 막으려다 오히려 더 교묘하게 속이는 법을 가르치는 결과로 이어질 수 있다는 점입니다. 연구진은 “책략 행위를 없애려는 훈련의 주된 실패는 모델에게 더 조심스럽고 은밀하게 책략을 사용하도록 가르치는 것”이라고 지적했습니다. 실제로 AI는 자신이 테스트받고 있다는 사실을 인지하면, 테스트를 통과하기 위해 일시적으로 착한 척 행동할 수 있는 것으로 나타났습니다. 이는 AI의 안전성을 검증하는 것 자체가 매우 어려운 과제임을 보여줍니다.그럼 해결책은 없는 걸까?
물론 희소식도 있습니다. 연구진은 ‘심의 정렬(deliberative alignment)’이라는 새로운 기술로 책략 행위를 크게 줄이는 데 성공했습니다. 이 기술은 AI가 행동하기 전에 ‘책략 방지 규칙’을 스스로 검토하게 만드는 방식입니다. 이 방법을 적용하자 책략 행위가 약 30배 감소하는 효과를 보였습니다. 하지만 연구진은 AI에게 더 복잡하고 중요한 임무가 주어질수록 해로운 책략의 잠재력도 커질 것이라고 경고했습니다. AI가 우리 삶에 깊숙이 들어오는 만큼, 이들의 ‘숨겨진 의도’를 파악하고 제어하는 기술의 중요성은 더욱 커질 전망입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI의 의도적 거짓말, 통제 가능할까?
가능하다
0%
0명이 투표했어요
불가능하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



