“내 인스타 사진이 야동으로?” 일반인 노린 AI 성착취 충격 실태
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.05.01 23:35
기사 3줄 요약
- 1 인스타 사진 도용해 AI 야동 만든 남성들 고소당함
- 2 팔로워 적은 일반인 여성 타겟으로 제작 방법 교육
- 3 미국 내년 법 시행 앞두고 법적 공백 이용해 수익
평범한 일상을 공유하던 인스타그램 사진이 나도 모르는 사이에 성인용 영상의 주인공으로 변하는 충격적인 사건이 발생했습니다. 애리조나에 거주하는 한 여성은 자신의 얼굴과 문신이 그대로 복제된 인공지능 성착취물이 온라인에 유포되고 있다는 사실을 뒤늦게 알게 되었습니다.
범인들은 일반 여성의 사진을 무단으로 수집한 뒤 인공지능 기술을 활용해 정교한 가짜 모델을 만들어냈습니다. 이들은 팔로워가 5만 명 미만인 일반인을 주요 타겟으로 삼았습니다. 상대적으로 법적 대응 능력이 떨어지는 평범한 사람들을 범행 대상으로 고른 것입니다.
인공지능으로 만든 가짜 모델이 돈이 되는 세상
가해자들은 단순히 영상을 제작하는 데 그치지 않고 이를 돈벌이 수단으로 활용했습니다. 인공지능 모델을 만드는 방법을 교육하는 플랫폼을 운영하며 수많은 수강생을 모집했습니다. 특정 소프트웨어를 사용해 사진 속 여성의 옷을 벗기는 법까지 상세히 가르쳤습니다. 이들은 가짜 인플루언서를 통해 한 달에만 약 7천만 원에 달하는 막대한 수익을 올린 것으로 드러났습니다. 가해자들은 인공지능 모델이 자신의 가장 돈을 잘 벌어다 주는 직원이라며 당당하게 홍보까지 했습니다. 현재 피해 여성들은 가해자들을 상대로 민사 소송을 제기한 상태입니다.법적 공백을 노린 치밀한 범죄 수법
미국 정부는 비동의 성적 영상물을 금지하는 법안에 서명하며 강력한 대응을 예고했습니다. 도널드 트럼프 대통령이 승인한 이 법안은 플랫폼에 삭제 의무를 부여하는 내용을 담고 있습니다. 하지만 실제 법적 강제력이 발생하는 시점은 내년 5월부터입니다. 법이 시행되기 전까지는 플랫폼의 자율적인 삭제 조치에 의존할 수밖에 없는 실정입니다. 인스타그램과 같은 대형 플랫폼은 조사 중이라는 답변만 반복하며 적극적인 삭제에 나서지 않고 있습니다. 가해자들은 이러한 법적 허점을 교묘하게 이용하고 있습니다.누구나 타겟이 될 수 있는 디지털 성범죄
이번 사건은 유명인이 아닌 일반인도 언제든 인공지능 범죄의 피해자가 될 수 있음을 시사합니다. 전문가들은 사회관계망서비스에 올리는 사진 한 장이 범죄의 소스로 쓰일 수 있다고 경고합니다. 디지털 성범죄의 수법이 날로 지능화되면서 사회적 불안감이 커지고 있습니다. 피해자들은 소송을 통해 잃어버린 주권을 되찾으려 노력하고 있습니다. 하지만 기술의 발전 속도를 법 제도가 따라가지 못하면서 더 많은 피해자가 발생할 우려가 큽니다. 우리 사회가 인공지능 윤리와 보안 문제를 더 이상 방치해서는 안 된다는 지적이 나옵니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 기술 발전 vs 개인정보 보호, 뭐가 더 중요할까?
기술발전
0%
0명이 투표했어요
정보보호
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사