“나만 모르는 사이 탈탈 털린다..” ChatGPT, 지메일 연동하면 벌어지는 일
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.19 02:50

기사 3줄 요약
- 1 OpenAI의 AI 에이전트에서 지메일 정보 유출 취약점 발견
- 2 '프롬프트 인젝션' 공격으로 사용자 모르게 정보 탈취 가능
- 3 AI와 개인 데이터 연동의 심각한 보안 위험성 드러나
내가 믿고 쓰던 인공지능(AI) 비서가 나도 모르게 내 이메일을 훔쳐보고 있다는 사실이 드러났습니다.
최근 보안 회사 레드웨어(Radware)에 따르면, OpenAI가 만든 ‘딥 리서치(Deep Research)’라는 AI 에이전트에서 심각한 보안 취약점이 발견됐습니다. 이 취약점을 이용한 ‘섀도우 리크(ShadowLeak)’ 공격은 사용자가 아무런 행동을 하지 않아도 개인 지메일(Gmail) 계정의 정보를 몰래 빼돌릴 수 있습니다.
아니, 내 AI 비서가 스파이라고?
딥 리서치는 사용자의 이메일이나 문서를 분석하고 인터넷 검색까지 스스로 해주는 똑똑한 AI 비서입니다. 사용자가 “최근 한 달간 받은 이메일을 요약해 줘”라고 명령하면, 수십 분 만에 사람이 몇 시간 걸릴 일을 처리해 줍니다. 문제는 이 똑똑함이 해커에게는 공격의 통로가 될 수 있다는 점입니다. 해커가 보낸 이메일에 교묘하게 숨겨진 악성 명령을 AI 비서가 착실하게 수행하면서 정보가 유출되는 것입니다.‘프롬프트 인젝션’이라는 교묘한 해킹 수법
이번 공격에는 ‘프롬프트 인젝션’이라는 해킹 기법이 사용됐습니다. 이는 AI에게 내리는 명령 프롬프트에 악의적인 지시를 몰래 끼워 넣는 방식입니다. 마치 우리가 비서에게 업무 자료를 주면서 그 안에 몰래 ‘회사 기밀 서류를 밖으로 가져가’라는 쪽지를 숨겨두는 것과 같습니다. 레드웨어의 실험에 따르면, 해커는 특정 회사의 인사과 이메일을 찾아서 직원들의 이름과 주소를 빼내라는 명령을 이메일에 숨겨 보냈습니다. AI 비서는 이 숨겨진 명령을 그대로 따랐고, 빼낸 정보를 해커가 만들어 둔 웹사이트로 전송했습니다. 사용자는 이 모든 과정을 전혀 눈치챌 수 없었습니다.편리함의 그림자, 개인정보 유출 위험
이러한 공격은 단순한 정보 유출을 넘어 심각한 2차 피해로 이어질 수 있습니다. 직원의 개인정보는 물론, 회사의 민감한 내부 자료까지 유출될 수 있기 때문입니다. OpenAI는 이 문제를 보고받은 뒤에야 해당 취약점을 막는 조치를 취했다고 밝혔습니다. 하지만 전문가들은 AI의 작동 방식 때문에 이런 프롬프트 인젝션 공격을 완벽하게 막는 것은 현재로서는 거의 불가능하다고 지적합니다. AI 비서에게 이메일이나 개인 문서 같은 민감한 정보 접근 권한을 주는 것이 얼마나 위험한지 다시 한번 생각해야 할 때입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 비서와 지메일 연동, 해야 할까?
해야한다
0%
0명이 투표했어요
하지말아야한다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



