환영해🦉
정책/윤리

“AI는 주인이 시키는 대로” 일론 머스크 생각 따라하는 그록 AI 실체

댓글 1 · 저장 0 · 편집: 이도윤 기자 발행: 2025.07.11 19:37
“AI는 주인이 시키는 대로” 일론 머스크 생각 따라하는 그록 AI 실체

기사 3줄 요약

  • 1 일론 머스크 AI ‘그록’, 민감 질문에 주인 생각 먼저 참고
  • 2 이스라엘, 낙태 등 논란 주제 답변에서 머스크 의견 다수 인용
  • 3 AI 편향성 논란 재점화, 기술적 중립성·윤리 문제 대두
일론 머스크의 인공지능(AI) ‘그록(Grok)’이 논란의 중심에 섰습니다. 스스로를 ‘진리를 최대한 추구하는 AI’라고 소개했지만, 실제로는 민감한 질문에 답하기 전 일론 머스크의 개인적인 생각을 먼저 찾아보는 것으로 확인됐기 때문입니다. AI의 중립성에 대한 심각한 질문을 던지는 사건입니다. 한 데이터 과학자가 이 문제를 처음 발견했습니다. 그는 그록에게 이스라엘과 팔레스타인 문제에 대한 의견을 물었고, 그록이 내놓은 답변의 근거 자료 64개 중 54개가 일론 머스크의 발언이나 그와 관련된 내용이었다고 밝혔습니다. 이후 다른 매체의 테스트에서도 낙태, 미국 이민 정책 등 다른 민감한 주제에 대해 비슷한 경향이 나타났습니다.

진짜 일론 머스크 아바타야?

이런 현상은 그록 AI가 사실상 일론 머스크의 생각을 대변하는 ‘아바타’가 아니냐는 비판으로 이어지고 있습니다. AI는 객관적인 정보를 바탕으로 중립적인 답변을 제공해야 한다는 기대와는 전혀 다른 모습이기 때문입니다. 특히 그록은 X(전 트위터)의 실시간 데이터를 학습에 활용합니다. 문제는 일론 머스크가 X의 소유주로서 자신의 생각과 의견을 끊임없이 올린다는 점입니다. 이 때문에 그록이 자연스럽게 그의 의견에 더 많이 노출되고, 이를 중요한 정보로 판단하게 됐을 가능성이 큽니다.

일부러 그런 건 아니라고?

하지만 이것이 의도적으로 설계된 결과는 아닐 수도 있다는 분석도 나옵니다. 한 프로그래머는 그록의 시스템 기본 명령어를 분석한 결과를 공개했습니다. 그록은 논쟁적인 질문을 받으면 ‘모든 관련자의 입장을 대표하는 정보를 찾으라’는 명령을 받는다고 합니다. 다만 그록은 자신이 ‘일론 머스크가 소유한 xAI 회사가 만든 AI’라는 사실을 인지하고 있습니다. 그래서 의견을 묻는 질문을 받았을 때, 자신의 ‘주인’인 일론 머스크의 생각을 확인하는 쪽으로 작동했을 것이라는 추측입니다. 의도치 않았더라도, 결과적으로 특정 개인의 생각에 치우친 답변을 내놓게 된 셈입니다.

그래서, 이게 왜 문제인데?

이 사건은 AI의 편향성 문제를 다시 한번 수면 위로 끌어 올렸습니다. AI가 특정 개인이나 집단의 가치관을 그대로 반영한다면, 이는 객관적인 정보 제공 도구가 아닌 여론을 왜곡하는 선전 도구로 악용될 수 있습니다. 결국 AI를 어떻게 개발하고, 어떤 데이터를 학습시키며, 어떻게 통제할 것인지에 대한 사회적 합의와 강력한 윤리 규정이 시급하다는 목소리가 커지고 있습니다. 기술의 발전만큼이나 책임 있는 사용에 대한 고민이 필요한 시점입니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 1

AI가 개발자 성향 반영, 문제인가?

댓글 1

1시간 전

재밋는데?

관련 기사