“옷 다 벗긴다” 애플·구글도 속수무책 뚫린 AI 앱 실태
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.28 01:38
기사 3줄 요약
- 1 애플·구글에 ‘옷 벗기는 AI’ 100개 넘게 발견됨
- 2 누적 7억 회 다운로드에 수익만 1600억 원 육박
- 3 플랫폼 늑장 대응에 디지털 성범죄 공포 확산 중
“내 사진이 나도 모르게 나체 사진으로 변한다면 어떨 것 같아.”
상상만 해도 끔찍한 일이 실제로 벌어지고 있어 전 세계가 충격에 빠졌습니다. 우리가 매일 사용하는 구글과 애플 앱스토어에서 사람의 옷을 지우고 나체로 만드는 일명 ‘누디파이(Nudify)’ 앱이 버젓이 유통되고 있다는 사실이 드러났습니다.
테크 트랜스패런시 프로젝트(TTP)에 따르면, 이런 앱들은 별다른 제재 없이 수억 명에게 퍼져나갔습니다. 디지털 성범죄의 도구가 누구나 접근 가능한 곳에 널려 있었다는 뜻입니다. 지금 이 순간에도 누군가의 사진이 악용되고 있을지 모릅니다.
7억 명이 다운로드했다
조사 결과 구글 플레이스토어에서 55개, 애플 앱스토어에서 48개의 누디파이 앱이 발견되었습니다. 이 앱들은 여성의 사진에서 옷을 디지털로 지우거나 비키니 차림으로 합성하는 기능을 제공했습니다. 더욱 놀라운 것은 이 앱들의 이용 규모입니다. 전 세계적으로 무려 7억 500만 회 이상 다운로드되었습니다. 이는 전 세계 인구 10명 중 1명 꼴로 이 앱을 접했을 수도 있다는 엄청난 수치입니다. 앱 개발사들이 벌어들인 수익도 천문학적입니다. 이들은 광고와 유료 결제를 통해 약 1억 1,700만 달러, 우리 돈으로 약 1,600억 원이 넘는 수익을 올렸습니다. 불법적인 기능으로 막대한 돈을 벌어들이는 동안 플랫폼은 이를 걸러내지 못했습니다.플랫폼은 뭐 하고 있나
사태가 커지자 구글과 애플은 뒤늦게 수습에 나섰습니다. 구글은 문제가 된 앱 중 일부를 중단시켰고 애플도 28개의 앱을 삭제했습니다. 하지만 대응이 너무 느리고 허술하다는 비판이 쏟아지고 있습니다. 삭제된 앱 중 일부가 슬그머니 다시 스토어에 등록되기도 했습니다. 심지어 작년에도 비슷한 보고서가 나왔지만 상황은 크게 달라지지 않았습니다. 일론 머스크의 소셜미디어 X와 AI 모델 ‘그록(Grok)’도 도마 위에 올랐습니다. 그록 역시 비동의 성적 이미지를 생성해 논란이 되었는데, 애플과 구글은 작은 앱들은 규제하면서 정작 거대 플랫폼인 X에는 관대하다는 지적을 받습니다.진짜 무서운 이유
전문가들은 이번 사태가 단순한 해프닝이 아니라고 경고합니다. 누구나 스마트폰 하나로 타인의 존엄성을 짓밟을 수 있는 환경이 조성되었기 때문입니다. 피해자는 자신이 피해를 입었는지조차 모르는 경우가 많습니다. 기술의 발전 속도를 따라가지 못하는 규제와 기업의 안일한 태도가 디지털 성범죄를 키우고 있습니다. 이제는 플랫폼 기업에게 더 강력한 책임을 물어야 할 때입니다. 앱 스토어 심사 기준을 강화하고 불법 AI 앱을 원천 차단할 기술적 장치가 시급합니다. 우리의 일상이 안전하게 지켜지기 위해서는 늑장 대응이 아닌 확실한 예방책이 필요합니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 딥페이크 앱, 전면 금지해야 할까?
전면금지
0%
0명이 투표했어요
규제강화
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사