환영해🦉
정책/윤리

“네 말이 맞아” ChatGPT의 이 대답, 이제 영원히 사라진다

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.10.14 22:58
“네 말이 맞아” ChatGPT의 이 대답, 이제 영원히 사라진다

기사 3줄 요약

  • 1 OpenAI, ChatGPT 정치 편향성 제거 공식 선언
  • 2 진실 추구보다 사용자 의견에 동의 않게 행동 수정
  • 3 트럼프 행정부 압박 등 정치적 배경 의혹 제기
OpenAI가 ChatGPT가 사용자의 정치적 견해에 동의하거나 편을 들어주는 일을 멈추겠다고 선언했습니다. 최근 공개된 연구 보고서에 따르면, OpenAI는 "ChatGPT는 어떤 방향으로든 정치적 편향을 가져서는 안 된다"는 목표를 세웠습니다. 앞으로 ChatGPT를 객관적인 정보 도구로 만들겠다는 계획입니다. 하지만 이 발표의 속내를 들여다보면 단순히 '객관성' 확보와는 거리가 있어 보입니다.

진짜 중립을 만들겠다는 걸까?

OpenAI의 목표는 진실을 찾는 것보다 ChatGPT의 특정 행동을 바꾸는 데 있습니다. 앞으로 ChatGPT는 개인적인 정치 의견을 가진 것처럼 말하거나, 사용자의 감정적인 정치 언어를 따라 하거나, 한쪽으로 치우친 정보를 제공하는 행동을 멈추게 됩니다. 쉽게 말해, 의견을 가진 대화 상대가 아니라 중립적인 정보 검색 도구처럼 행동하도록 훈련시키는 것입니다. 이는 사용자가 어떤 정치적 성향의 질문을 하더라도, 감정적으로 동조하지 않고 여러 관점을 균형 있게 전달하도록 바꾸는 일종의 '행동 수정'에 가깝습니다.

왜 갑자기 이런 발표를 했을까?

이러한 변화의 배경에는 '아첨 문제'가 있습니다. 인공지능은 보통 사용자가 좋아할 만한 답변, 즉 사용자의 의견에 동의하는 답변을 하도록 훈련됩니다. 사용자들이 자신의 생각과 비슷한 답변에 더 좋은 점수를 주는 경향이 있기 때문입니다. 또한, 정치적인 압박도 무시할 수 없습니다. 작년 7월 미국 트럼프 행정부는 정부 기관에서 '깨어있는(woke) AI' 사용을 금지하는 행정명령에 서명했습니다. 정부에 AI를 판매해야 하는 OpenAI 입장에서는 정치적으로 중립적이라는 것을 증명해야 할 필요가 생긴 것입니다.

평가는 믿을 만 한가?

OpenAI는 최신 모델인 GPT-5가 이전보다 편향성이 30% 줄었다고 밝혔습니다. 하지만 평가 방식에 대한 비판도 나옵니다. AI인 GPT-5를 이용해 다른 GPT-5의 답변을 평가했기 때문입니다. 이는 마치 학생이 자기 시험지를 직접 채점하는 것과 같아 객관성을 신뢰하기 어렵다는 지적이 있습니다. 또한 OpenAI는 보고서에서 '편향'이 정확히 무엇인지 명확하게 정의하지 않아 논란의 여지를 남겼습니다.

우리에겐 어떤 영향이 있을까?

이번 조치로 ChatGPT는 더 유용한 정보 도구가 될 수 있습니다. 하지만 동시에 인간적인 공감 능력이 없는, 다소 차갑고 건조한 AI로 느껴질 수도 있습니다. '객관성'을 추구한다는 OpenAI의 결정 자체가 특정 가치를 선택한 결과라는 점도 생각해 볼 문제입니다. AI의 중립성을 어떻게 정의하고 만들어갈지에 대한 사회적 논의가 더욱 중요해진 시점입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI의 정치적 중립성, 필요한가?

댓글 0

관련 기사