“챗봇에 증상 묻지 마세요” 의사들 경고, AI 정확도 33% 배신
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.04.15 07:12
기사 3줄 요약
- 1 미국 성인 3명 중 1명 건강 상담 위해 AI 챗봇 사용
- 2 AI 의료 진단 정확도 33% 불과해 오진 위험성 매우 높음
- 3 병원들이 안전성 높인 전용 챗봇 도입하며 돌파구 마련
미국 성인 3명 중 1명이 건강 상담을 위해 챗봇을 사용한다는 조사 결과가 나왔습니다. 병원에 가기 어렵거나 비용이 부담스러워 선택하는 경우가 많습니다.
KFF가 발표한 자료에 따르면 많은 이들이 민감한 의료 정보까지 입력하며 조언을 구하고 있습니다. 하지만 전문가들은 자칫 생명이 위험해질 수 있다며 우려의 목소리를 냅니다.
AI 진단 결과 믿을 수 있을까
최근 네이처 메디슨에 실린 연구에 따르면 AI가 병명을 정확히 맞히는 확률은 33%에 불과했습니다. 환자가 상황을 제대로 설명하지 못하면 오진 확률은 더 올라갑니다. 심지어 가짜로 만들어진 피부병 이름을 진짜처럼 설명하는 경우도 있었습니다. 잘못된 정보를 믿고 치료 시기를 놓칠 수 있다는 점이 가장 큰 문제입니다.병원들이 직접 만든 챗봇의 등장
상황이 이렇자 하트퍼드 헬스케어 같은 병원들은 자체 챗봇인 페이션트GPT를 내놓고 있습니다. 일반적인 챗봇보다 안전하고 정확하게 환자를 관리하겠다는 계획입니다. 에픽이라는 회사도 에미라는 인공지능 비서를 통해 환자들을 돕기 시작했습니다. 이들은 병원에 저장된 환자의 기록을 바탕으로 더 정확한 정보를 주려고 노력합니다.안전과 책임에 대한 남은 과제들
하지만 병원이 만든 챗봇이라도 여전히 해결해야 할 과제는 많습니다. 개인 정보가 유출되거나 오진이 났을 때 법적으로 누가 책임을 질지가 모호합니다. 인공지능이 특정 인종이나 집단에 편향된 정보를 줄 수 있다는 지적도 나옵니다. 데이터가 골고루 쓰이지 않으면 의료 불평등이 심해질 수 있기 때문입니다.인공지능과 의사가 함께하는 미래
결국 챗봇은 의사를 대신하는 존재가 아니라 보조하는 도구가 되어야 합니다. 기술적 발전과 함께 환자의 안전을 지킬 법적인 장치 마련이 시급해 보입니다. 의료진과 인공지능이 협력할 때 환자들은 더 안전한 진료를 받을 수 있습니다. 앞으로 이 기술이 병원 문턱을 어떻게 낮출 수 있을지 주목해야 합니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 챗봇으로 건강 상담받는 거 괜찮을까?
괜찮다
0%
0명이 투표했어요
위험하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사