환영해🦉
이슈/트렌드

"목소리 복제, 단 3초면 끝" AI 보이스피싱, 다음 타겟은 누구일까?

댓글 1 · 저장 0 · 편집: 이도윤 기자 발행: 2025.08.07 21:23
"목소리 복제, 단 3초면 끝" AI 보이스피싱, 다음 타겟은 누구일까?

기사 3줄 요약

  • 1 AI, 단 3초 음성 샘플만으로 목소리 완벽 복제
  • 2 가족이나 지인인 척 접근해 돈 요구하는 신종 사기 급증
  • 3 피해 막으려면 통화 끊고 아는 번호로 직접 재확인 필수
“엄마, 나 좀 도와줘.”, “김 부장, 급한 건인데 이쪽으로 송금 좀 부탁해.” 만약 가족이나 직장 상사에게서 이런 전화를 받는다면 의심 없이 믿기 쉽습니다. 하지만 이제는 그 목소리마저 믿을 수 없는 세상이 됐습니다. 인공지능(AI)이 단 3초 분량의 음성만으로 특정인의 목소리를 완벽하게 복제해 사기에 악용하는 ‘딥페이크 보이스피싱’이 현실적인 위협으로 떠올랐기 때문입니다.

그래서 어떻게 목소리를 훔치는데?

보안 업체 그룹-IB(Group-IB)에 따르면 범죄 방식은 생각보다 간단합니다. 먼저 유튜브 영상, 온라인 회의, 과거 통화 등에서 목표물의 목소리 샘플을 수집합니다. 이 샘플을 AI 음성 합성 프로그램에 넣으면, 원하는 어떤 문장이든 목표물의 목소리로 만들어낼 수 있습니다. 과거의 어색한 기계음 수준을 생각하면 안 됩니다. 최신 기술은 목소리 톤은 물론, 평소 말투나 습관까지 따라 해 진짜와 가짜를 구분하기 어렵습니다. 심지어 실시간으로 대화에 맞춰 목소리를 바꿔가며 의심에 답하는 등, 점점 더 치밀하고 정교해지고 있습니다.

왜 이렇게 속기 쉬운 거야?

딥페이크 보이스피싱에 속기 쉬운 이유는 신뢰하는 목소리와 긴급한 상황 설정 때문입니다. 구글의 보안 부서 맨디언트(Mandiant)가 진행한 모의 훈련이 이를 증명합니다. 훈련에서 공격팀은 회사 간부의 목소리를 복제한 뒤, 그의 팀원에게 전화를 걸었습니다. 이후 실제 회사 내부망에 문제가 생긴 상황을 이용해 “VPN 접속이 안 되니 내가 보내주는 파일을 설치하라”고 지시했습니다. 피해 직원은 익숙한 상사의 목소리에 아무런 의심 없이 악성 파일을 내려받았고, 이는 조직의 보안망이 뚫리는 결과로 이어졌습니다.

그럼 이제 어떻게 해야 막을 수 있어?

이런 신종 사기를 막기 위해선 무엇보다 ‘의심’하는 습관이 중요합니다. 전화로 돈이나 개인정보를 요구하면 일단 경계해야 합니다. 가장 확실한 방법은 전화를 끊고, 내가 원래 알던 번호로 직접 다시 걸어 사실관계를 확인하는 것입니다. 가족이나 가까운 지인과 미리 ‘암구호’를 정해두는 것도 좋은 예방법입니다. 다른 사람은 알 수 없는 둘만의 단어나 질문을 정해두고, 중요한 요청 시 확인하는 절차를 거치는 것입니다. 기술이 발전하는 만큼, 우리의 경계심도 함께 높아져야 할 때입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 1

AI 목소리 복제 기술, 규제해야 하나?

댓글 1

3일 전

어케마강?

관련 기사