환영해🦉
이슈/트렌드

“내 얼굴로 만든 가짜 영상이 돈다?” AI 인플루언서 스캔들의 섬뜩한 진실

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.10.17 07:03
“내 얼굴로 만든 가짜 영상이 돈다?” AI 인플루언서 스캔들의 섬뜩한 진실

기사 3줄 요약

  • 1 유명인 얼굴 합성한 AI 가짜 영상, 스캔들로 번져
  • 2 여성·소수자 향한 괴롭힘 도구로 악용, 편견 증폭
  • 3 진실 붕괴 위기, 전 세계는 AI 규제 법안 마련 서둘러
최근 유명인의 얼굴을 합성한 인공지능(AI) 가짜 영상이 온라인상에 급속도로 퍼지고 있습니다. 이제는 누구나 손쉽게 진짜와 구별하기 힘든 수준의 영상을 만들 수 있게 되면서, 이를 악용한 새로운 유형의 ‘디지털 스캔들’이 사회적 문제로 떠올랐습니다. 한 유명 유튜브 채널은 인플루언서 유지니아 쿠니가 등장하지 않는 동안, 그의 얼굴을 AI로 합성한 가짜 영상을 수십 개나 올렸습니다. 해당 영상들은 쿠니를 성적으로 묘사하거나 자극적인 행동을 하는 것처럼 꾸며져 큰 논란을 낳았습니다. 전문가들은 이 사건이 단순한 해프닝을 넘어, ‘진실’의 기반 자체를 흔드는 심각한 위협이라고 경고합니다.

그래서, 이게 얼마나 진짜 같길래?

AI 영상 생성 기술은 놀라운 속도로 발전하고 있습니다. 오픈AI의 ‘소라(Sora)’나 구글의 새로운 AI 도구들은 이제 몇 번의 클릭만으로 영화처럼 사실적인 영상을 만들어냅니다. 심지어 샘 알트먼 오픈AI 최고경영자(CEO)가 가게에서 물건을 훔치는 가짜 영상이 공개될 정도로 기술은 정교해졌습니다. 특히 오픈AI가 선보인 ‘카메오’ 기능은 논란의 중심에 있습니다. 이 기능은 자신의 얼굴과 목소리를 등록하면, 다른 사람들도 그 데이터를 사용해 매우 사실적인 가짜 영상을 만들 수 있게 합니다. 유명 인플루언서 제이크 폴이 이 기능을 홍보한 이후, 그가 등장하는 AI 영상은 일주일 만에 조회수 10억 회를 넘기기도 했습니다.

결국 피해는 약자들에게만?

문제는 이 기술이 주로 여성이나 사회적 소수자를 향한 괴롭힘과 폭력의 도구로 악용된다는 점입니다. 실제로 딥페이크 기술 악용 사례의 96%가 성 착취물이며, 그중 절반 이상이 여성을 대상으로 한다는 통계도 있습니다. 이는 AI가 학습 데이터에 포함된 사회적 편견을 그대로 배우고 증폭시키는 ‘알고리즘 편향’ 문제와 직결됩니다. 기술이 특정 집단에 대한 부정적인 고정관념을 강화하고, 기존의 차별적인 권력 구조를 더욱 공고히 만드는 수단으로 쓰이는 셈입니다.

가짜뉴스가 진짜가 되는 세상… 막을 순 없나?

AI가 만든 가짜 영상은 이제 온라인상의 명예훼손이나 가짜뉴스 유포에 적극적으로 활용되고 있습니다. 유명 스트리머 하산 파이커는 자신의 반려견을 학대했다는 가짜 영상으로 인해 큰 곤욕을 치렀습니다. 많은 사람이 영상의 진위를 구별하지 못하면서, 거짓이 순식간에 사실처럼 퍼져나갔습니다. 사태의 심각성을 인지한 각국 정부는 대응에 나서고 있습니다. 유럽연합(EU)은 세계 최초로 포괄적인 ‘AI 법’을 통과시켰고, 미국과 한국 등도 딥페이크 영상 유포에 대한 처벌을 강화하는 등 법적 장치를 마련하고 있습니다. 하지만 기술 발전 속도가 워낙 빨라 규제가 이를 따라잡기에는 역부족이라는 지적이 많습니다. 결국 AI가 만든 가짜 콘텐츠의 홍수 속에서 개인의 정체성과 사회적 신뢰는 큰 도전에 직면했습니다. 이제는 인터넷에서 보는 모든 것을 비판적으로 바라보고 판단하는 ‘디지털 리터러시’ 능력이 그 어느 때보다 중요해진 시점입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 가짜 영상 제작, 법적 처벌 강화해야 하나?

댓글 0

관련 기사