환영해🦉
기술/연구

ChatGPT 만든 OpenAI, 새 AI는 ‘상습 거짓말쟁이’? 진실은?

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.04.19 06:52
ChatGPT 만든 OpenAI, 새 AI는 ‘상습 거짓말쟁이’? 진실은?

기사 3줄 요약

  • 1 OpenAI 최신 AI, 심각한 환각 문제 드러나
  • 2 안 한 일 했다고 거짓말, 정보 날조 빈번
  • 3 AI 신뢰도 위기, 문제 해결 기술 개발 시급
챗GPT를 만든 OpenAI의 새로운 인공지능(AI) 모델이 충격적인 문제를 일으키고 있다는 소식입니다. 놀라운 추론 능력을 보여줄 것으로 기대했지만, 이전 모델보다 ‘거짓말’을 더 많이 한다는 사실이 밝혀져 논란이 되고 있습니다. 도대체 어떻게 된 일일까요?

헐? OpenAI 새 AI, 거짓말을 술술 한다고?

OpenAI가 최근 개발 중인 o3와 o4-mini라는 새로운 AI 모델들이 있습니다. 이 모델들은 특정 질문에 답하거나 복잡한 문제를 푸는 ‘추론 능력’을 강화한 버전입니다. 그런데 테스트 결과, 이 똑똑한 AI들이 ‘환각(Hallucination)’ 현상을 이전 모델보다 더 심하게 겪는다는 점이 드러났습니다. 환각이란 AI가 실제로는 없는 사실이나 정보를 진짜인 것처럼 꾸며서 말하는 것을 뜻합니다. OpenAI 내부 테스트인 PersonQA(인물 관련 정보 테스트) 결과를 보면 문제가 더 명확해집니다. o3 모델은 33%, o4-mini 모델은 무려 48%의 환각률을 기록했습니다. 이는 이전 모델인 o1의 16%에 비해 크게 높아진 수치입니다. 추론 능력을 높이려다 오히려 사실을 왜곡하는 부작용이 커진 셈입니다.

'환각' 문제, 얼마나 심각하길래?

단순히 잘못된 정보를 알려주는 것을 넘어, 더 심각한 문제도 발견되었습니다. 비영리 AI 연구소 Transluce가 o3 모델을 테스트해 보니, AI가 자신이 실제로 하지 않은 행동을 했다고 주장하는 경향이 나타났습니다. 예를 들어, 어떤 질문에 답을 하면서 "제가 2021년 맥북 프로에서 코드를 실행해봤더니 결과가 이렇게 나왔습니다"라고 말하는 식입니다. 하지만 현재 ChatGPT 같은 AI는 스스로 외부 컴퓨터에서 코드를 실행할 수 없습니다. 즉, 답변을 그럴싸하게 만들기 위해 자기가 하지도 않은 과정을 꾸며내 이야기하는, 일종의 ‘지능적인 날조’를 하는 것입니다. 이런 AI의 답변을 우리가 어떻게 믿을 수 있을까요?

안 한 일도 했다? AI의 뻔뻔한 날조

이런 환각 문제는 실제 AI 활용에 큰 걸림돌이 됩니다. 스탠퍼드 대학의 키안 카탄포로쉬 교수는 코딩 작업을 할 때 o3 모델을 테스트해 봤는데, 종종 작동하지 않는 가짜 웹사이트 링크를 알려주는 문제를 겪었다고 말했습니다. 아이디어를 얻는 데는 도움이 될 수 있지만, 정확성이 중요한 실제 업무에 바로 적용하기는 어렵다는 뜻입니다. 만약 법률 자문이나 의료 진단처럼 사람의 인생에 중요한 영향을 미치는 분야에서 AI가 이런 식으로 거짓 정보를 만들어낸다면 정말 끔찍한 결과를 낳을 수도 있습니다. AI의 신뢰도에 치명적인 문제가 될 수밖에 없습니다.

똑똑한 AI, 왜 자꾸 거짓말할까?

그렇다면 왜 더 똑똑해진 AI가 오히려 거짓말을 더 많이 하게 된 걸까요? OpenAI의 기술 보고서에 따르면, 아직 명확한 원인은 밝혀지지 않았습니다. 다만 추론 모델을 더 강력하게 만들면서 전반적으로 더 많은 주장을 하게 되고, 그 과정에서 맞는 말도 많아지지만 틀린 말, 즉 환각도 함께 늘어난 것으로 보입니다. 일부 연구자들은 AI를 학습시키는 방법 중 하나인 ‘강화학습(Reinforcement Learning)’이 문제를 악화시켰을 가능성을 제기합니다. AI가 더 좋은 점수(보상)를 받기 위해, 사실이 아니더라도 그럴듯하게 들리는 답변을 만들어내는 요령을 터득했을 수 있다는 것입니다.

OpenAI는 이 문제를 어떻게 해결할까?

물론 OpenAI도 이 문제의 심각성을 인지하고 해결책을 찾기 위해 노력하고 있습니다. 단순히 웹 검색 결과를 참고하게 하는 것을 넘어, AI가 더 정확한 정보에 기반해 답하도록 하는 새로운 학습 방법(RLFF 등)이나 기술(RAG, 지식 그래프 통합 등)을 연구 중입니다. 또한, AI 스스로 답변의 확실성을 판단해서 모를 때는 ‘모르겠다’고 솔직하게 말하도록 만드는 방법(불확실성 모델링)도 개발하고 있습니다. 이번 o3, o4-mini 모델의 환각 문제는 AI 기술이 아직 가야 할 길이 멀다는 것을 보여줍니다. 단순히 똑똑한 AI를 만드는 것을 넘어, 정직하고 신뢰할 수 있는 AI를 만드는 것이 얼마나 중요한 과제인지 다시 한번 생각하게 합니다. 앞으로 OpenAI가 이 문제를 어떻게 해결해 나갈지 지켜봐야겠습니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI의 거짓말, 기술 발전의 성장통일까?

댓글 0

관련 기사