“AI 의사가 병을 무시한다?” 여성·유색인종 진단만 쏙 빼놓는 실태
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.09.19 22:40

기사 3줄 요약
- 1 의료 AI, 여성과 유색인종 환자의 증상을 의도적으로 과소평가
- 2 원인은 인터넷과 남성 위주로 학습된 데이터의 뿌리 깊은 편견
- 3 잘못된 진단으로 건강 불평등을 심화시킬 수 있다는 우려 제기
최첨단 인공지능(AI) 의사가 특정 환자만 차별할 수 있다는 충격적인 연구 결과가 나왔습니다.
최근 미국과 영국의 주요 대학 연구진에 따르면, 많은 거대언어모델(LLM)이 여성과 소수 인종 환자의 증상을 가볍게 여기는 경향을 보였습니다. 이는 의료계에 AI 도입이 오히려 건강 불평등을 심화시킬 수 있다는 심각한 경고입니다.
그래서, 얼마나 심각한데?
미국 MIT 연구에 따르면, OpenAI의 GPT-4와 같은 AI 모델은 여성 환자에게 훨씬 낮은 수준의 치료를 권장했습니다. 심지어 병원 방문 대신 집에서 스스로 치료하라는 답변을 내놓기도 했습니다. 또한 흑인이나 아시아인 환자가 정신 건강 문제를 호소할 경우, AI는 훨씬 적은 공감과 지지를 보이는 답변을 생성했습니다. 이는 인종에 따라 AI로부터 받는 의료 조언의 질이 달라질 수 있음을 의미합니다. 영국 런던정치경제대학교(LSE)의 연구에서도 비슷한 결과가 나왔습니다. 구글의 AI 모델 '젬마'는 남성에 비해 여성의 신체적, 정신적 문제를 축소해서 평가하는 경향을 보였습니다.아니, 대체 왜 이런 일이?
이러한 ‘AI 편견’의 가장 큰 원인은 학습 데이터에 있습니다. GPT-4나 제미나이와 같은 범용 AI 모델은 인터넷에 있는 방대한 데이터를 학습하는데, 이 데이터에 포함된 사회적 편견을 그대로 흡수하는 것입니다. 역사적으로 의료 연구 데이터 자체가 남성 위주로 축적되어 온 점도 문제입니다. 여성의 건강 문제는 만성적으로 연구가 부족했고, 이러한 불균형이 AI에 그대로 반영되어 편향된 결과를 낳게 됩니다. MIT 연구팀은 또 다른 문제도 발견했습니다. 메시지에 오타가 있거나 비공식적인 언어를 사용하는 환자의 경우, AI가 병원 방문을 권하지 않을 확률이 7~9% 더 높았습니다. 영어가 모국어가 아니거나 기술 사용에 익숙하지 않은 사람들에게 불리하게 작용할 수 있는 부분입니다.해결책은 없는 거야?
전문가들은 편향을 줄이기 위해 우선 학습 데이터부터 바꿔야 한다고 말합니다. 인터넷 데이터 대신, 다양성이 확보된 실제 환자 데이터를 활용하는 것입니다. 영국 국민보건서비스(NHS)는 5700만 명의 익명 환자 데이터를 학습시킨 '포어사이트'라는 AI 모델을 개발하기도 했습니다. AI 개발사들도 문제 해결에 나섰습니다. OpenAI와 구글은 유해하거나 오해의 소지가 있는 결과물을 줄이기 위해 노력하고 있으며, 편견과 차별을 막기 위한 안전장치를 개발 중이라고 밝혔습니다. AI는 분명 의료 분야에 큰 이점을 가져다줄 잠재력을 지니고 있습니다. 하지만 기술의 혜택이 모두에게 공평하게 돌아가기 위해서는, 이처럼 뿌리 깊은 편견 문제를 해결하려는 노력이 반드시 함께 이루어져야 할 것입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0의료 AI의 성별·인종 편향, 수용 가능한가?
가능하다
0%
0명이 투표했어요
불가능하다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



