“AI가 또 거짓말?” 일론 머스크 AI ‘그록(Grok)’ 믿어도 될까?
댓글 4
·
저장 0
·
편집: 이도윤 기자
발행: 2025.05.20 07:23

기사 3줄 요약
- 1 AI 챗봇 그록, 백인 역차별 답변 논란 발생
- 2 xAI, 직원 독단 주장 불구 정치적 의도 의심
- 3 챗봇 답변 51% 문제, 팩트 체크 필수 지적
최근 일론 머스크가 이끄는 xAI의 인공지능(AI) 챗봇 '그록'이 때아닌 논란에 휩싸였습니다. 묻지도 않은 내용을 답변하며 정치적 편향성 의혹까지 받았기 때문입니다. 이번 사건은 AI 챗봇이 제공하는 정보를 우리가 얼마나 신뢰해야 하는지 근본적인 질문을 던지고 있습니다.
그록은 왜 그런 답변을 했을까?
지난 주말, 미국의 AI 챗봇 '그록(Grok)'이 남아프리카공화국의 백인 역차별 문제를 스스로 언급해 논란이 되었습니다. 개발사인 xAI 측은 일부 직원의 독단적인 코드 변경 때문이라고 해명했지만, 많은 사람들은 의심의 눈초리를 보내고 있습니다. 심지어 일론 머스크 CEO의 지시가 아니냐는 추측까지 나오고 있는 상황입니다.AI 챗봇, 생각보다 많이 틀린다?
사실 AI 챗봇의 답변 오류는 어제오늘의 이야기가 아닙니다. 영국 BBC의 조사에 따르면, 주요 AI 챗봇 답변의 절반 이상(51%)에서 심각한 문제가 발견되었습니다. 챗GPT나 구글 제미나이 같은 유명 챗봇들도 예외는 아니었고, 심지어 챗봇이 직접 사실 오류를 만들어내는 경우도 있었습니다."모르는 건 없어요!" 자신감 넘치는 AI의 함정
더 큰 문제는 AI 챗봇들이 틀린 답변을 하면서도 놀라울 정도로 자신감 넘치는 태도를 보인다는 점입니다. 컬럼비아 저널리즘 리뷰 연구에서는 그록이 무려 94%의 질문에 잘못된 답변을 했다고 밝혔습니다. 챗GPT는 잘못된 정보를 제공하면서도, 스스로 근거가 부족하다고 인정한 경우는 극히 드물었습니다.인터넷 정보가 문제? 피자엔 왜 접착제를?
AI 챗봇의 오류는 단순히 기술적 문제인 '환각(Hallucination, 없는 정보를 그럴싸하게 만들어내는 현상)' 때문만은 아닙니다. 인터넷에 떠도는 잘못되거나 편향된 정보를 학습하기 때문이기도 합니다. 과거 구글 AI가 "피자에 접착제를 붙이라"는 황당한 답변을 한 것도, 누군가 장난으로 올린 블로그 글을 그대로 가져왔기 때문입니다.사진, 영상도 믿을 수 없다니!
글뿐만 아니라 이미지나 영상 분석에서도 AI 챗봇은 취약점을 드러냈습니다. 최근 그록은 오픈AI의 동영상 생성 AI '소라(Sora)'가 만든 가짜 아나콘다 영상을 진짜라고 주장해 망신을 당했습니다. 영상 한쪽 구석에는 소라가 만들었다는 표시(워터마크)까지 있었지만, 이를 제대로 파악하지 못한 것입니다.챗봇 홍수 시대, 어떻게 사용해야 할까?
최근 우리나라에서도 휴대폰 사용자 절반이 AI 챗봇을 사용하고, 주로 검색 용도로 활용한다는 조사 결과가 나왔습니다. 하지만 전문가들은 AI 챗봇의 답변을 100% 신뢰해선 안 된다고 경고합니다. 인터넷 검색 결과를 모두 믿지 않듯, 챗봇의 답변도 반드시 여러 출처와 비교하며 사실 확인(팩트 체크)을 해야 합니다. AI 챗봇은 분명 편리한 도구이지만, 모든 것을 알고 있는 존재는 아닙니다. 옥스포드 인터넷 연구소의 펠릭스 사이먼 연구원은 "AI 시스템을 팩트 체크 도구로 간주해서는 안 된다"며, 답변을 다른 출처와 반드시 비교 확인할 것을 강조했습니다. AI 시대, 정보의 홍수 속에서 현명한 사용자의 자세가 더욱 중요해지고 있습니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 5AI 챗봇 답변 신뢰, 해야 할까 말아야 할까?
신뢰한다
0%
0명이 투표했어요
신뢰하지 않는다
0%
0명이 투표했어요
댓글 4개
관련 기사
최신 기사




아직은 신뢰는 안댕댕 곧 올거야 신뢰할 날이 ! 근데