“내 얼굴 하나로 전 재산 털린다?” 5600억 꿀꺽한 AI 딥페이크 사기 수법
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.07.09 16:56

기사 3줄 요약
- 1 AI 딥페이크 사기, 올 상반기 피해액만 5600억 원 돌파
- 2 유명인 사칭, 생체인증까지 뚫는 등 수법 고도화
- 3 정부와 기업, 처벌 강화 및 탐지 기술 개발로 대응
인공지능(AI)을 이용한 딥페이크 사기가 무섭게 번지고 있습니다. 올 상반기에만 피해액이 무려 4억 1천만 달러, 우리 돈으로 약 5,600억 원에 달합니다.
이는 작년 한 해 전체 피해액을 훌쩍 뛰어넘는 엄청난 규모입니다. AI가 만든 가짜 얼굴과 목소리에 전 세계가 속수무책으로 당하고 있는 셈입니다.
진짜 내 얼굴, 목소리가 아니라고?
딥페이크는 AI 기술로 특정 인물의 얼굴이나 목소리를 진짜처럼 복제해 영상이나 음성을 만드는 기술입니다. 범죄자들은 이 기술을 악용해 사기 행각을 벌이고 있습니다. 가장 흔한 수법은 유명인을 사칭해 투자를 유도하는 방식입니다. 기업 임원의 목소리를 위조해 직원에게 돈을 보내게 하거나, 얼굴 인식 같은 생체 인증 시스템까지 뚫어 대출을 받는 일도 발생했습니다. 홍콩에서는 한 은행 지점장이 임원을 사칭한 AI 음성에 속아 거액을 송금하기도 했습니다.이젠 정부랑 기업도 나섰다고?
사태가 심각해지자 정부와 기업들도 대응에 나섰습니다. 정부는 딥페이크를 이용한 성범죄물 제작이나 유포는 물론, 시청하는 행위까지 처벌하는 등 법을 강화하고 있습니다. 틱톡이나 메타 같은 대형 플랫폼들도 AI로 만든 콘텐츠에는 별도 표시를 하도록 의무화했습니다. 구글이나 국내 AI 기업들은 딥페이크를 탐지하고 가짜 여부를 판별하는 기술 개발에 속도를 내고 있습니다. 창과 방패의 싸움이 시작된 것입니다.그럼 어떻게 피해야 하는데?
개인이 피해를 막기 위해서는 무엇보다 주의가 필요합니다. 전문가들은 온라인에서 만난 사람이 투자를 권유하면 일단 의심하고, 직접 만나 신원을 확인하라고 조언합니다. SNS에 개인 정보를 너무 많이 공개하지 않는 것도 중요합니다. 범죄자들이 이 정보를 딥페이크 제작에 악용할 수 있기 때문입니다. 고수익을 보장한다는 말에 현혹되지 말고, 의심스러운 영상이나 음성은 항상 경계하는 습관을 가져야 합니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 딥페이크 범죄, 기술 규제 강화해야 할까?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



