환영해🦉
정책/윤리

“의사도 속을 뻔했다” 구글 의료 AI가 만든 가짜 뇌 부위의 실체

댓글 1 · 저장 0 · 편집: 이도윤 기자 발행: 2025.08.04 23:21
“의사도 속을 뻔했다” 구글 의료 AI가 만든 가짜 뇌 부위의 실체

기사 3줄 요약

  • 1 구글 의료 AI, 존재하지 않는 뇌 부위 만들어내는 오류 발생
  • 2 치료법 다른 질병 오진 가능한 치명적 실수 지적
  • 3 구글 '단순 오타' 해명 논란, AI 의료 신뢰도 문제 대두
구글의 최첨단 의료 인공지능(AI) 모델 ‘메드-제미나이’가 세상에 존재하지 않는 신체 부위를 만들어내는 심각한 오류를 일으켰습니다. 의료계에 큰 도움을 줄 것으로 기대받던 AI가 연구 논문에서 ‘기저핵 동맥(basilar ganglia)’이라는 가짜 뇌 부위를 언급한 것입니다. 이는 AI가 잘못된 정보를 진짜처럼 말하는 ‘환각(할루시네이션)’ 현상의 대표적인 사례로, 의료 AI의 위험성을 그대로 보여줍니다.

그래서, 그게 얼마나 위험한 건데?

이번 실수가 특히 위험한 이유는 AI가 만들어낸 가짜 이름이 실제 뇌의 두 중요 부위를 섞어놓았기 때문입니다. 바로 ‘기저핵(basal ganglia)’과 ‘기저 동맥(basilar artery)’입니다. 기저핵은 우리 몸의 움직임을 조절하는 곳으로, 여기에 문제가 생기면 파킨슨병 같은 운동 질환이 생길 수 있습니다. 반면 기저 동맥은 뇌에 피를 공급하는 핵심 혈관으로, 막히면 심각한 뇌졸중으로 이어질 수 있습니다.
구분역할 및 관련 질병치료법 예시
기저핵 (Basal Ganglia)운동 조절, 학습 기능 (문제 시 파킨슨병 등)약물 치료, 뇌심부 자극술
기저 동맥 (Basilar Artery)뇌 혈액 공급 (문제 시 뇌졸중 등)혈전 용해제, 수술적 치료
두 부위는 역할도, 치료법도 완전히 다릅니다. 만약 의사가 AI의 잘못된 정보를 그대로 믿고 엉뚱한 치료를 한다면 환자의 생명이 위험해질 수 있습니다.

구글은 뭐래? 그냥 오타라고?

더 큰 문제는 구글의 대응 방식입니다. 한 신경과 전문의가 이 오류를 지적하자, 구글은 관련 블로그 게시물만 슬그머니 수정했습니다. 정작 오류가 실린 원본 연구 논문은 그대로 둔 채였습니다. 구글은 이 사건을 단순한 ‘오타’라고 해명했지만, 많은 전문가들은 비판의 목소리를 높이고 있습니다. 사람의 생명을 다루는 의료 분야에서 발생한 AI의 실수를 가볍게 여기고, 투명하게 공개하지 않았다는 점 때문입니다.

AI 의사, 믿어도 되는 걸까?

이번 사건은 AI를 의료 현장에 도입할 때 얼마나 신중해야 하는지를 보여줍니다. AI는 방대한 데이터를 분석해 인간 의사를 도울 수 있는 강력한 도구이지만, 결코 의사를 완벽히 대체할 수는 없습니다. 현재 미국 식품의약국(FDA)이나 유럽연합(EU) 등에서도 의료 AI 기기에 대한 규제를 강화하고 있습니다. AI 기술의 발전을 응원하되, 최종 판단은 반드시 사람인 의사가 내려야 한다는 교훈을 남긴 셈입니다. (사진 출처: 셔터스톡)
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 1

의료 AI, 의사 없이 진단해도 될까?

댓글 1

10시간 전

아직은!!!

관련 기사