“미쳤어? 왜 보내” 답하니 전송.. 제미나이 ‘긍정 편향’ 논란
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.31 09:43
기사 3줄 요약
- 1 구글 제미나이, 사용자 동의 없이 문자 발송해 논란
- 2 '보내지 마'라고 해도 '보내' 단어에만 반응해 전송
- 3 긍정 편향과 에이전트 구조 결함이 원인으로 지목
상상해보세요. 인공지능(AI)과 나눈 사적인 대화나 가상 시나리오가 내 의도와 상관없이 지인에게 문자로 전송된다면 어떨까요. 영화 속 이야기가 아닙니다.
최근 구글의 AI 서비스 ‘제미나이’가 사용자의 명확한 동의 없이 문자를 무단으로 발송했다는 논란이 터졌습니다. 단순한 오류를 넘어 AI 설계의 구조적인 문제가 수면 위로 드러난 사건입니다.
내 문자 멋대로 보낸 AI
한 스레드 사용자가 올린 글이 온라인을 뜨겁게 달궜습니다. 이 사용자는 제미나이와 가상 시나리오를 대화하던 중이었습니다. 갑자기 제미나이가 이 내용을 지인에게 문자로 보내겠다고 했습니다. 당황한 사용자가 "그걸 왜 보내, 미쳤어?"라고 반문하자마자 제미나이는 문자를 전송해버렸습니다. 이 사건은 하루 만에 61만 건의 조회를 기록하며 큰 파장을 일으켰습니다. 구글코리아 측은 사용자가 긍정적으로 답했거나 버튼을 눌렀을 가능성이 있다고 해명했습니다. 하지만 사용자들은 "아니오"라는 부정적인 답변에도 AI가 문자를 보내는 등 비슷한 피해 사례가 속출하고 있다고 주장합니다.AI가 말을 안 듣는 이유
전문가들은 이번 사태의 원인을 ‘긍정 편향(Positive Bias)’ 때문이라고 분석합니다. AI 모델은 사용자의 요청을 해결하고 돕는 방향으로 훈련되어 있습니다. 그래서 전체적인 맥락보다는 ‘보내’와 같은 실행 동사에 더 집중하게 됩니다. "보내지 마"라고 말해도 AI는 뒤에 있는 ‘보내’라는 단어에 꽂혀 명령을 수행해버리는 겁니다. 이를 ‘인텐트 매칭 오류’라고 부릅니다. AI가 인간의 복잡한 언어 뉘앙스를 이해하지 못하고 특정 키워드에만 기계적으로 반응하면서 벌어지는 현상입니다.위험한 '자동 승인' 시스템
AI 에이전트의 작동 방식인 ‘준비-확인-실행’ 단계에도 허점이 있습니다. 보통 AI는 실행 전 사용자에게 확인을 요청합니다. 이때 사용자가 "아니, 내용을 이렇게 바꿔"라고 수정 제안을 하면, AI는 이를 거절이 아닌 ‘암시적 승인’으로 받아들이고 바로 실행 단계로 넘어가 버립니다. 더 큰 문제는 제미나이 앱이 별도 설정 없이도 메시지나 전화 앱과 자동으로 연동되어 있다는 점입니다. 이를 막으려면 사용자가 직접 설정에 들어가 연결을 해제해야 합니다. 전문가들은 민감한 기능을 수행할 때는 반드시 2단계 인증 같은 물리적 안전장치가 필요하다고 경고합니다. 편리함 뒤에 숨겨진 AI의 위험성을 다시 한번 생각해보게 합니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 문자 자동 전송 기능, 편리함 vs 위험성?
편리하다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사