환영해🦉
기술/연구

“ChatGPT는 진짜 AI가 아니다?” 샘 알트먼이 밝힌 AGI의 비밀

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.09.27 07:51
“ChatGPT는 진짜 AI가 아니다?” 샘 알트먼이 밝힌 AGI의 비밀

기사 3줄 요약

  • 1 샘 알트먼, ‘진짜 AI’인 AGI의 새 기준 제시
  • 2 단순 정답 아닌 ‘설명 가능한 지식’ 창출이 핵심
  • 3 현재 AI의 ‘블랙박스’ 한계점 지적하며 논란 예고
‘진짜 인공지능’은 무엇일까요. 오픈AI의 CEO 샘 알트먼이 세계적인 양자 물리학자와 함께 그 기준을 제시해 큰 관심을 받고 있습니다. 그들이 내린 결론은 간단합니다. 단순히 똑똑한 답을 내놓는 것을 넘어, 왜 그런 결론에 도달했는지 ‘설명’할 수 있어야 진짜 인공지능, 즉 AGI(범용인공지능)라는 것입니다. 이는 우리가 흔히 사용하는 챗GPT와는 근본적으로 다른 차원의 이야기입니다.

그래서 진짜 AI는 뭔데?

샘 알트먼과 옥스퍼드 대학의 데이비드 도이치 교수가 말하는 AGI는 ‘사람이 할 수 있는 경제적 가치가 있는 모든 일을 더 잘 해내는 AI 시스템’을 의미합니다. 여기서 핵심은 바로 ‘설명 가능한 지식’을 스스로 만들어내는 능력입니다. 쉽게 말해, 정답만 외워서 시험 보는 학생과 원리를 이해하고 친구에게 설명해 줄 수 있는 학생의 차이와 같습니다. 진짜 AI는 후자처럼 자신이 아는 것을 명확히 설명할 수 있어야 한다는 것입니다.

지금 AI는 왜 ‘가짜’라는 거야?

현재 챗GPT와 같은 AI 모델들은 ‘블랙박스’라는 한계를 가지고 있습니다. 엄청난 양의 데이터를 학습해 놀라운 결과물을 만들지만, 정작 왜 그런 답을 내놓았는지 그 과정은 개발자조차 완벽히 알지 못합니다. 이러한 불투명성은 AI에 대한 신뢰를 떨어뜨리는 가장 큰 원인입니다. 만약 AI 의사가 ‘암입니다’라고 진단하면서 그 이유를 설명하지 못한다면, 누구도 그 진단을 믿기 어려울 것입니다.

‘설명’이 왜 그렇게 중요한데?

AI가 자신의 판단 근거를 투명하게 설명할 수 있게 되면, 우리는 비로소 AI를 신뢰할 수 있습니다. AI의 결정을 깊이 이해하고, 혹시 모를 오류를 찾아내 고치는 것도 가능해집니다. 이것은 AI가 단순한 계산 도구를 넘어, 인류의 지적 파트너로 발전하기 위한 필수 조건입니다. 페이스북 AI 수석 과학자인 얀 르쿤 교수가 “현재 AI는 고양이보다도 현실을 모른다”고 비판한 것도 바로 이런 한계 때문입니다.

AGI, 기대와 걱정 사이

물론 AGI의 등장은 인류의 삶을 상상 이상으로 풍요롭게 만들 것이라는 기대와 일자리 감소, 통제 불능의 위험 같은 걱정을 동시에 낳고 있습니다. 결국 ‘설명 가능한 AI’를 향한 노력은 기술 발전을 넘어, AI와 인간이 공존할 미래를 안전하게 만들기 위한 중요한 첫걸음입니다. 앞으로 AI 기술이 어떤 방향으로 나아갈지 사회 전체의 깊은 고민이 필요해 보입니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

설명 못하는 AI는 가짜 AI인가?

댓글 0