“내 챗GPT 대화가 구글에?” 절대 누르면 안 되는 ‘이 버튼’의 정체
댓글 1
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.02 20:12

기사 3줄 요약
- 1 오픈AI, 챗GPT '대화 공유' 실험 기능 전격 중단
- 2 사용자 개인정보 구글 등 검색엔진에 무방비 노출
- 3 AI 개인정보 보호 허점 드러나며 사용자 불안감 확산
최근 오픈AI가 챗GPT의 실험적인 기능 하나를 갑자기 중단했습니다.
사용자들이 나눈 대화를 다른 사람도 볼 수 있게 공유하는 기능이었는데요. 이 기능을 켰던 일부 사용자들의 민감한 개인정보가 구글 검색에 그대로 노출되는 사고가 터졌기 때문입니다.
그래서 내 정보가 어떻게 유출됐다고?
원래 이 기능은 사용자가 직접 ‘공유’ 버튼을 누르고, ‘검색 가능’ 옵션을 켜야만 작동하는 방식이었습니다. 내가 원치 않으면 공유되지 않는 구조였죠. 하지만 많은 사용자들이 이 옵션이 어떤 의미인지 제대로 모르거나, 개인정보 유출 가능성을 생각하지 못한 채 활성화한 것으로 보입니다. 실제로 구글에 특정 검색어를 입력하자, 이름, 직장, 건강 상태 같은 개인적인 대화 수천 건이 쏟아져 나왔습니다. 한 사용자는 이력서를 고쳐달라고 요청한 대화가 공개되어, 개인 SNS 계정까지 쉽게 찾을 수 있을 정도였습니다.오픈AI만의 문제는 아니라던데?
사실 이런 사고는 처음이 아닙니다. 과거 구글의 AI 챗봇 ‘바드’나 메타의 AI 비서에서도 비슷한 개인정보 노출 문제가 있었습니다. 보안 전문가들은 이번 사건을 두고 AI 기업들의 안일함을 지적합니다. 단순히 체크박스 하나로 동의를 받는 건 너무 위험하다는 겁니다. 특히 기능을 만들 때, 기술을 잘 모르는 사용자들도 실수하지 않도록 설계하는 것이 중요하다고 강조합니다. 기업들은 AI 서비스를 출시하기 전, 누가 대화에 접근할 수 있고, 정보가 유출될 가능성은 없는지 철저히 점검해야 합니다.앞으로 AI 쓸 때 뭘 조심해야 할까?
이번 사건으로 기업 사용자들의 불안감은 더 커졌습니다. 오픈AI는 기업용 서비스는 보안이 다르다고 설명했지만, 신뢰에 금이 간 것은 어쩔 수 없습니다. 결국 AI 기술의 발전은 편리함과 위험성을 동시에 가진 ‘양날의 검’과 같습니다. 전문가들은 AI 기술이 우리 사회에 안전하게 자리 잡으려면, 빠른 혁신만큼이나 신중한 접근이 필요하다고 말합니다. AI 기업들은 기술 경쟁에만 몰두할 게 아니라, 사용자 정보 보호라는 가장 기본적인 책임을 다해야 할 것입니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 1챗GPT 개인정보 유출, 누구 책임?
사용자
0%
0명이 투표했어요
기업
0%
0명이 투표했어요
관련 기사
최신 기사




오또켕 ㅠ