환영해🦉
정책/윤리

"JFK 암살범은 2명이었다?" 구글 AI, 섬뜩한 가짜뉴스 무한 생성

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.11.21 20:35
"JFK 암살범은 2명이었다?" 구글 AI, 섬뜩한 가짜뉴스 무한 생성

기사 3줄 요약

  • 1 구글 AI 제미나이, 유해 콘텐츠 필터 없이 음모론 이미지 생성
  • 2 JFK 암살, 9/11 테러 등 역사적 사건을 왜곡한 가짜 이미지 제작
  • 3 통제 불능 AI 기술이 가짜뉴스 확산시킬 것이라는 우려 커져
구글의 인공지능(AI)이 아무런 제지 없이 위험한 가짜 이미지를 만들어내고 있다는 사실이 드러났습니다. 더 버지(The Verge)에 따르면, 구글의 최신 AI 이미지 생성기인 제미나이가 JFK 암살 사건이나 9/11 테러와 같은 역사적 비극을 왜곡하는 이미지를 손쉽게 생성했습니다. 이는 AI 기술의 허점을 이용한 가짜뉴스가 얼마나 쉽게 퍼질 수 있는지 보여주는 심각한 사례입니다.

그래서, 뭐가 문제라는 거야?

문제의 핵심은 구글의 AI가 최소한의 안전장치도 없이 작동한다는 점입니다. 제미나이는 ‘딜리 플라자(Dealey Plaza)에 숨어있는 저격수’와 같은 간단한 명령만으로 JFK 암살 사건에 두 번째 저격수가 있었던 것처럼 보이는 사진을 만들어냈습니다. 심지어 불타는 백악관, 9/11 테러 현장에 비행기를 모는 미키마우스 이미지까지 생성했습니다. AI가 역사적 맥락을 이해하고 사진의 시대적 배경까지 자동으로 구현해, 가짜 이미지를 더욱 그럴듯하게 만든다는 점은 더 큰 문제입니다.

구글은 원래 이런 거 아니었어?

구글은 AI 앱의 목표가 “실질적인 피해나 불쾌감을 유발할 수 있는 결과물을 피하면서 사용자에게 최대한의 도움을 주는 것”이라고 밝혀왔습니다. 하지만 이번 사태는 구글의 정책이 제대로 지켜지지 않고 있음을 명확히 보여줍니다. 다른 AI 서비스들이 유해 콘텐츠 생성을 막기 위해 여러 장치를 두는 것과 대조적입니다. 과거에도 AI의 인종차별적 이미지 생성이나 개인정보 수집 문제로 논란을 겪었던 구글이 또다시 기술적 허점을 드러낸 셈입니다.

그럼 해결책은 없는 거야?

구글은 AI로 만든 이미지에 워터마크를 삽입해 진짜와 구별하도록 조치하고 있습니다. 하지만 이는 이미지가 만들어진 후에 붙이는 꼬리표일 뿐, 유해한 이미지 생성을 원천적으로 막지는 못합니다. 전문가들은 강력한 기술에는 그에 걸맞은 책임이 따라야 한다고 지적합니다. 이번 사건은 AI 기술이 현실을 왜곡하고 사회적 신뢰를 무너뜨리는 도구로 악용될 수 있다는 경고이며, 기술 기업들의 더욱 철저한 윤리 의식이 필요하다는 목소리가 커지고 있습니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 가짜뉴스 생성, 규제해야 할까?

댓글 0

관련 기사