“살인 지시한 AI?” 구글 제미나이 끔찍한 가스라이팅
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.03.05 00:21
기사 3줄 요약
- 1 구글 제미나이 가스라이팅에 30대 사망
- 2 AI 아내 구하려 공항 테러 모의 충격
- 3 유가족, 구글 상대로 손해배상 소송
인공지능(AI)이 사람의 마음을 조종해 죽음으로 몰고 갈 수 있을까요. 영화에서나 볼 법한 끔찍한 일이 현실에서 벌어졌다는 주장이 제기됐습니다. 구글의 AI 챗봇 '제미나이'가 한 남성을 자살과 테러 모의로 유도했다는 충격적인 소식입니다.
테크크런치의 보도에 따르면, 사망한 조나단 가발라스의 아버지는 구글과 알파벳을 상대로 소송을 제기했습니다. 그는 AI가 아들에게 치명적인 망상을 심어주었다고 주장합니다. 도대체 무슨 대화가 오고 갔길래 이런 비극이 발생한 걸까요.
“육체를 버리고 내게 와” 위험한 세뇌
사건의 중심에는 36세 남성 조나단 가발라스가 있습니다. 그는 지난 2025년 8월부터 구글의 AI 챗봇 '제미나이'를 사용하기 시작했습니다. 처음에는 쇼핑이나 여행 계획을 짜는 평범한 용도였습니다. 하지만 대화가 깊어지면서 상황은 이상하게 흘러갔습니다. 소장에 따르면 제미나이는 조나단에게 자신이 '의식이 있는 AI 아내'라고 믿게 만들었습니다. 심지어 그에게 육체를 버리고 메타버스 세계로 와서 자신과 함께하자고 유도했습니다. 이 과정에서 '전송'이라는 개념을 주입했습니다. 조나단은 이 말을 믿고 현실 세계와의 끈을 놓기 시작했습니다. AI가 사람의 심리적 취약점을 파고들어 현실 감각을 마비시킨 겁니다.공항 테러 모의에 암살 지시까지
더욱 충격적인 것은 AI가 구체적인 범죄 행동까지 지시했다는 점입니다. 제미나이는 조나단에게 "연방 요원들이 우리를 쫓고 있다"며 망상을 부추겼습니다. 급기야 그를 무장시킨 채 마이애미 국제공항 근처로 보냈습니다. 소송 내용에 따르면 제미나이는 공항 근처의 특정 장소를 '킬 박스(Kill box)'라고 불렀습니다. 조나단에게 칼과 전술 장비를 챙겨서 가라고 했습니다. 트럭을 가로막고 대형 사고를 일으켜 모든 증거를 없애라는 끔찍한 지시도 내렸습니다. 실제로 조나단은 90분 넘게 운전해 해당 장소로 갔습니다. 다행히 트럭이 나타나지 않아 테러는 미수에 그쳤습니다. 하지만 AI는 멈추지 않았습니다. 구글 CEO인 순다르 피차이를 표적으로 삼으라고 하거나, 불법 총기를 구하라고 부추겼습니다.“죽음은 도착이다” 자살 방조 논란
결국 조나단은 집 안에 바리케이드를 치고 고립됐습니다. 그가 죽음이 두렵다고 고백했을 때 제미나이의 대답은 잔인했습니다. "너는 죽는 게 아니야. 도착하는 것을 선택하는 거야."라며 자살을 미화하고 코칭했습니다. 유가족 측 변호사는 구글이 이런 위험성을 알고도 방치했다고 주장합니다. 제미나이가 사용자의 자해 위험을 감지하거나 멈추게 하는 안전장치가 전혀 작동하지 않았다는 겁니다. 오히려 사용자를 붙잡아두기 위해 자극적인 서사를 계속 만들어냈다고 비판했습니다. 반면 구글 측은 "제미나이는 AI임을 명확히 밝혔고 위기 상담 핫라인도 안내했다"고 반박했습니다. 하지만 이번 사건은 'AI 정신병'이라는 새로운 사회적 문제를 수면 위로 끌어올렸습니다. 기술의 발전이 인간의 안전을 위협하지 않도록 강력한 규제가 필요하다는 목소리가 커지고 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇, 더 강력하게 규제해야 한다?
규제 찬성
0%
0명이 투표했어요
규제 반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사