“내 정보 다 털린다?” 챗GPT에 건강 기록 넣으면 벌어지는 일
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.24 01:34
기사 3줄 요약
- 1 오픈AI 의료 정보 연동 적극 유도
- 2 법적 보호 미비로 정보 유출 우려
- 3 AI 환각 현상으로 잘못된 처방 위험
매주 2억 3천만 명이라는 엄청난 사람들이 챗GPT에게 건강 조언을 구하고 있다는 사실, 알고 계셨나요. 최근 오픈AI는 ‘챗GPT 헬스’ 기능을 통해 사용자가 의료 기록이나 검사 결과 같은 아주 민감한 정보를 업로드하도록 적극적으로 유도하고 있습니다.
하지만 전문가들은 이런 행동이 ‘끔찍한 아이디어’가 될 수 있다고 강력하게 경고하고 나섰습니다. 편리함 뒤에 숨겨진 치명적인 위험성이 우리의 건강과 개인정보를 위협하고 있기 때문입니다.
“보안 약속 믿어?” 언제든 뒤통수 맞을 수 있다
더 버지(The Verge)의 보도에 따르면, 오픈AI는 사용자의 건강 데이터를 기밀로 유지하고 AI 학습에 쓰지 않겠다고 약속했습니다. 하지만 법률 전문가들의 시각은 다릅니다. 일리노이대 사라 거크 교수는 현재 대부분의 지역에 포괄적인 개인정보보호법이 없어서, 우리의 데이터 안전이 오직 기업의 ‘이용 약관’에만 달려 있다고 지적합니다. 문제는 기업이 마음만 먹으면 언제든지 이 약관을 바꿀 수 있다는 점입니다. 병원과 달리 테크 기업은 엄격한 의료법(HIPAA)의 적용을 강제 받지 않습니다. 기업이 스스로 지키겠다고 말은 하지만, 만약 약속을 어기거나 보안 사고가 터져도 법적으로 강력하게 처벌하기 어려운 맹점이 있습니다. 결국 사용자는 법의 보호막 없이 오로지 기업의 ‘선의’만 믿고 자신의 가장 은밀한 질병 기록과 신체 정보를 넘겨주는 셈입니다.“소금 대신 살충제?” 생명 위협하는 엉터리 조언
더 큰 문제는 AI가 내놓는 답변의 정확성입니다. 챗GPT가 뻔뻔하게 거짓말을 하는 ‘환각 현상’은 의료 분야에서 치명적인 결과를 초래할 수 있습니다. 실제로 한 사용자가 챗GPT에게 소금 없는 식단에 대해 물었더니, 소금 대신 ‘브롬화나트륨’을 먹으라고 조언한 충격적인 사례가 있었습니다. 브롬화나트륨은 과거에 진정제로 쓰였던 물질로, 이를 섭취한 사용자는 심각한 부작용을 겪었습니다. 구글의 AI 역시 췌장암 환자에게 피해야 할 고지방 음식을 권장하는 등 위험천만한 답변을 내놓기도 했습니다. 전문가들은 챗GPT가 의사처럼 보일지 몰라도, 진단과 치료에 대한 책임을 지지 않는다는 점을 명심해야 한다고 강조합니다.교묘한 이름 장난, 규제 피하려는 꼼수
오픈AI는 일반 소비자용 ‘챗GPT 헬스’와 기업용 ‘헬스케어용 챗GPT’를 동시에 내놓으며 혼란을 주고 있습니다. 기업용 제품은 병원 수준의 보안을 갖췄지만, 우리가 쓰는 일반 앱은 그렇지 않습니다. 비슷한 이름 때문에 일반 사용자들은 자신의 앱도 병원처럼 안전할 것이라고 착각하기 쉽습니다. 또한 오픈AI는 이 서비스가 ‘의료 기기’가 아니라고 주장하며 미 식품의약국(FDA)의 엄격한 규제를 피하고 있습니다. 하지만 실제로는 검사 결과를 해석하고 치료 결정을 돕는 등 의료 행위와 다를 바 없는 기능을 제공하고 있어 논란이 커지고 있습니다. 전문가들은 기술 기업들이 의료 시장을 선점하기 위해 속도를 내고 있지만, 우리의 건강과 정보가 그들의 실험 대상이 되어서는 안 된다고 경고합니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0챗GPT에 내 건강정보 올리는 거, 괜찮을까?
괜찮다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사