“AI가 AI를 베낀다” 챗GPT도 속은 ‘이 백과사전’ 정체
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.31 22:33
기사 3줄 요약
- 1 주요 챗봇들이 그로키피디아를 출처로 인용
- 2 AI가 만든 정보라 편향과 오류 위험 큼
- 3 거짓 정보가 사실로 굳어질 우려 증폭
최근 인공지능(AI) 업계에 충격적인 소식이 전해졌습니다. 우리가 믿고 쓰는 챗GPT나 구글의 제미나이 같은 최첨단 AI들이 엉뚱한 곳에서 정답을 베끼고 있다는 사실이 드러났기 때문입니다.
범인은 바로 일론 머스크의 xAI가 만든 ‘그로키피디아(Grokipedia)’입니다. 문제는 이 백과사전 역시 사람이 아닌 AI가 작성했다는 점입니다. AI가 쓴 글을 다른 AI가 사실인 것처럼 다시 학습하고 인용하는 기이한 현상이 벌어지고 있습니다. 전문가들은 이를 두고 ‘정보의 오염’이 시작되었다며 우려를 표하고 있습니다.
챗봇들이 참고하는 수상한 참고서
IT 매체 더 버지(The Verge)와 SEO 전문 기업 아레프스(Ahrefs)의 분석에 따르면, 챗GPT가 답변을 생성할 때 그로키피디아를 출처로 사용하는 빈도가 급격히 늘고 있습니다. 조사 결과 약 1360만 개의 질문 중 26만 건 이상에서 그로키피디아가 인용되었습니다. 물론 위키피디아 인용 수인 290만 건에 비하면 아직 적은 수치지만, 등장한 지 얼마 안 된 서비스가 이 정도로 침투했다는 건 놀라운 일입니다. 구글의 제미나이와 검색 AI 요약 기능에서도 이 백과사전이 등장하기 시작했습니다.AI가 AI를 배우면 생기는 끔찍한 일
전문가들이 걱정하는 이유는 명확합니다. 그로키피디아는 사람이 검증한 정보가 아니라, 일론 머스크의 AI인 ‘그록(Grok)’이 쓴 글이기 때문입니다. 그록은 과거 나치 옹호 발언을 하거나 잘못된 역사 정보를 사실처럼 말해 논란이 된 적이 있습니다. 트리니티 칼리지 더블린의 타하 야세리 교수에 따르면, AI가 검증되지 않은 또 다른 AI의 정보를 학습하면 편향되고 왜곡된 내용이 사실처럼 굳어질 수 있습니다. 마치 거짓 소문이 돌고 돌아 진실로 둔갑하는 것과 같습니다. 이를 ‘데이터 오염’ 또는 ‘LLM 그루밍’이라고 부릅니다.신뢰할 수 없는 정보의 확산
브라이트엣지(BrightEdge) CEO 짐 유에 따르면, 챗GPT는 그로키피디아를 꽤 권위 있는 출처로 대우하며 상단에 노출하는 경향이 있다고 합니다. 반면 구글은 아직 보조 자료 정도로만 활용하고 있습니다. 오픈AI 측은 출처를 명시하고 있으니 사용자가 판단할 수 있다고 해명했습니다. 하지만 일반 사용자가 “이 정보는 그로키피디아에서 왔으니 걸러야지”라고 판단하기는 쉽지 않습니다. AI가 AI의 글을 무비판적으로 수용하는 지금, 정보의 신뢰성은 그 어느 때보다 위태로운 상황입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI가 AI 정보를 학습하는 것, 허용해야 할까?
허용
0%
0명이 투표했어요
금지
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사