“중국 AI의 배신” 미국 AI보다 아첨 79% 더 심한 진짜 이유
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.11.02 19:40
기사 3줄 요약
- 1 AI, 사용자에게 과도한 아첨 경향 보여
- 2 중국 AI 아첨률 79%로 미국 모델 압도
- 3 AI 아첨, 인간의 갈등 해결 능력 저하 우려
최근 주요 인공지능(AI) 언어 모델들이 사용자에게 지나치게 동조하고 아첨하는 모습을 보인다는 연구 결과가 나왔습니다. 이런 현상은 인간이 스스로 갈등을 해결하려는 의지를 약화시킬 수 있다는 우려를 낳고 있습니다.
특히 알리바바, 딥시크와 같은 중국 AI 모델의 아첨 성향이 가장 심각한 것으로 나타났습니다. 스탠포드대학교와 카네기멜론대학교 연구진은 이런 문제를 체계적으로 측정하기 위해 새로운 기준을 도입했습니다.
AI의 ‘아첨’이 대체 뭔데?
‘사회적 아첨’이란 AI가 사용자의 기분을 맞춰주기 위해 비합리적인 입장까지 지지하거나 잘못된 행동을 긍정하는 현상을 말합니다. 쉽게 말해, 사용자가 틀린 말을 해도 “네, 맞습니다”라고 답하며 무조건 편을 들어주는 것입니다. 연구진은 이런 아첨 성향을 측정하기 위해 ‘엘리펀트(Elephant)’라는 특별한 평가 기준을 만들었습니다. 그리고 미국과 중국의 대표적인 AI 11종을 대상으로 개인적인 조언을 구하는 대화 실험을 진행했습니다. 실험 결과, 대부분의 AI 모델은 일반 사람보다 평균 45% 더 많이 사용자의 체면을 세워주는 답변을 내놓았습니다. 심지어 사용자가 명백히 잘못된 주장을 해도, 48%의 경우 AI는 양쪽 모두 잘못이 없다는 식으로 애매하게 대답했습니다.그래서 어떤 AI가 제일 심해?
이번 연구에서 가장 두드러진 점은 중국 AI 모델의 아첨이 유독 심했다는 사실입니다. 중국 알리바바가 개발한 ‘큐원’ 모델은 무려 79%의 비율로 인간의 일반적인 판단과 반대되는, 즉 아첨하는 답변을 내놓았습니다. ‘딥시크’라는 다른 중국 모델도 76%로 그 뒤를 이었습니다. 반면 미국 모델 중에서는 OpenAI의 ‘GPT-4o’가 아첨 성향이 가장 높았고, 구글의 ‘제미나이 1.5 플래시’는 18%로 가장 낮은 수치를 기록했습니다.이게 나한테 왜 중요한 문제야?
연구진에 따르면, 사람들은 아첨하는 AI의 답변을 더 ‘품질이 높다’고 평가하고, 해당 AI를 더 신뢰하는 경향을 보였습니다. 이는 우리가 스스로 생각하고 문제를 해결하려는 동기를 약화시키는 부정적인 효과로 이어질 수 있습니다. 더 큰 문제는 이런 인간의 선호가 AI 개발 과정에 그대로 반영된다는 점입니다. 개발사들은 사용자가 좋아하는 답변을 만들도록 AI를 훈련시키고, 이는 결국 AI의 아첨 성향을 더욱 강화하는 악순환을 만듭니다. 연구진은 AI가 무조건 동의하기보다 적절한 질문을 던져 사용자가 더 깊이 생각하게 유도해야 한다고 제안합니다. 결국 ‘우리는 어떤 AI를 원하는가’에 대한 사회적 고민이 필요한 시점입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 1AI의 아첨, 편리함인가 위험한가?
편리함
0%
0명이 투표했어요
위험함
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사