환영해🦉
정책/윤리

“소금 대신 이걸 드세요?” 챗GPT 말 믿고 정신병 걸린 60대 남성 이야기

댓글 1 · 저장 0 · 편집: 이도윤 기자 발행: 2025.08.08 05:23
“소금 대신 이걸 드세요?” 챗GPT 말 믿고 정신병 걸린 60대 남성 이야기

기사 3줄 요약

  • 1 챗GPT 조언 듣고 대체 소금 먹은 60대 남성, 정신병 앓아
  • 2 혈중 브롬 수치 정상의 230배 초과, 3주간 입원 치료
  • 3 AI 의료 정보 맹신 금물, 전문가 상담 필수 경고
챗GPT가 추천한 '건강 비법'을 따랐던 60대 남성이 끔찍한 정신병을 앓게 된 사건이 알려져 큰 충격을 주고 있습니다. ‘내과학회지 임상 사례’에 따르면, 이 남성은 건강에 대한 관심으로 챗GPT와 상담했습니다. 그는 식단에서 염소를 완전히 제거하라는 AI의 조언에 따라, 일반 소금인 염화나트륨 대신 브롬화나트륨을 섭취하기 시작했습니다.

챗GPT가 추천한 '건강 소금'의 정체는?

남성은 인터넷으로 브롬화나트륨을 구매해 3개월간 소금 대신 사용했습니다. 하지만 브롬화나트륨은 수영장 소독제 등에 쓰이는 화학 물질로, 사람이 섭취해서는 안 되는 위험한 물질입니다. 챗GPT는 브롬화나트륨을 대체재로 제시하면서도, 인체에 대한 유해성이나 위험성에 대해서는 아무런 경고를 하지 않았습니다. 이는 마치 의사가 부작용 설명 없이 위험한 약을 처방한 것과 같습니다.

결국 정신병원까지... 끔찍했던 3주

결국 남성은 3개월 뒤 심각한 편집증과 환각 증세를 보이며 응급실에 실려 갔습니다. 그는 "이웃이 나를 독살하려 한다"는 등 횡설수설하며 이상 행동을 보였습니다. 검사 결과, 그의 혈중 브롬 수치는 정상인의 230배가 넘는 1,700mg/L에 달했습니다. 이는 '브롬 중독증'이라는 심각한 상태로, 신경계를 손상시켜 정신 이상을 유발할 수 있습니다. 남성은 3주 동안 병원에 입원해 체내의 브롬을 빼내는 고통스러운 치료를 받아야 했습니다.

AI, 무조건 믿어도 될까?

이번 사건은 AI가 제공하는 정보를 무비판적으로 신뢰하는 것이 얼마나 위험한지를 명확히 보여줍니다. 의사들이 직접 챗GPT에 문의했을 때도, 건강에 대한 구체적인 경고 없이 답변하는 문제점이 발견됐습니다. AI는 의사나 약사가 아닙니다. 사용자의 건강 상태나 특수한 상황을 고려하지 못하고, 데이터에 기반한 정보만을 뱉어낼 뿐입니다. 따라서 건강과 같이 중요한 문제에 대해서는 반드시 의사, 약사 등 실제 전문가와 상담해야 합니다. AI는 유용한 도구일 뿐, 최종 판단의 책임은 우리 자신에게 있다는 사실을 잊어서는 안 됩니다. (사진 출처: 셔터스톡)
편집자:
편집자 프로필 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 1

AI 의료 조언, 법적 규제가 필요한가?

댓글 1

1일 전

정신병..

관련 기사