환영해🦉
기술/연구

챗GPT의 ‘진짜 뇌’는 LLM이었다! AI와 뭐가 다른지 파헤쳐봄

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.05.31 21:20
챗GPT의 ‘진짜 뇌’는 LLM이었다! AI와 뭐가 다른지 파헤쳐봄

기사 3줄 요약

  • 1 챗봇의 진짜 뇌는 LLM, AI와는 다른 개념
  • 2 LLM, 수많은 단어 데이터 학습해 다음 말 예측
  • 3 자연스러운 대화 가능, 환각 등 한계점도 존재
우리가 매일같이 사용하는 CHATGPT나 구글 제미나이 같은 인공지능 챗봇들, 정말 신기할 정도로 말을 잘하죠. 하지만 이 챗봇들이 실제로 사람처럼 단어의 의미를 완벽히 이해하는 것은 아닙니다. 사실 우리는 챗봇이라는 창구를 통해 ‘대규모 언어 모델(Large Language Models, LLM)’이라는 거대한 기술과 소통하고 있는 것입니다. 이 LLM이야말로 챗봇 똑똑함의 핵심 열쇠인데, AI와는 미묘하게 다른 개념이랍니다.

그래서 LLM이 정확히 뭔데?

쉽게 말해 언어 모델은 ‘다음에 어떤 단어가 나올까’를 예측하는 일종의 ‘단어 점쟁이’라고 생각할 수 있습니다. 우리가 스마트폰으로 문자를 보낼 때 다음 단어를 추천해주는 자동완성 기능도 이런 언어 모델의 한 종류입니다. 대규모 언어 모델(LLM)은 이보다 훨씬 더 크고 복잡한 버전으로, 수십억 개 이상의 ‘파라미터’라는 변수를 가집니다. 이 파라미터는 모델이 얼마나 많은 정보를 학습하고 처리할 수 있는지를 나타내는 지표로, 일종의 ‘뇌 용량’이라고 이해하면 쉽습니다. LLM은 마치 엄청나게 많은 책을 읽은 사람처럼, 방대한 양의 텍스트 데이터를 학습합니다. 이 과정에서 단어들이 어떤 순서로, 어떤 단어들과 함께 자주 사용되는지 그 패턴을 익히게 됩니다. 그래서 우리가 어떤 질문을 하거나 문장을 입력하면, LLM은 학습한 패턴을 기반으로 가장 자연스럽고 그럴듯한 다음 단어, 문장, 심지어는 긴 글까지 예측해서 보여주는 것입니다.

LLM은 어떻게 그렇게 말을 잘하게 된 걸까?

LLM이 이렇게 말을 잘하게 되는 비결은 ‘딥러닝’이라는 인공지능 학습 방법 덕분입니다. 마치 아이에게 수많은 그림책을 보여주며 단어를 가르치듯, LLM에게 책, 기사, 웹사이트, 심지어 소셜 미디어 게시글까지 엄청난 양의 텍스트 데이터를 ‘먹이’처럼 제공합니다. 이 과정에서 LLM은 ‘토큰’이라는 작은 단위로 글자를 쪼개서 단어와 문장의 구조, 문맥 속 의미까지 파악하며 언어의 미묘한 사용법을 스스로 터득합니다. 이렇게 학습된 데이터의 양은 사람이 평생 읽을 수 있는 양을 훌쩍 뛰어넘는 수준입니다. LLM은 이 방대한 데이터를 바탕으로 단어들 사이의 관계를 촘촘하게 연결하는 거대한 ‘단어 관계 지도’를 머릿속에 그립니다. 그리고 우리가 말을 걸면, 이 지도를 참고해 다음에 나올 가장 적절한 단어를 예측하고, 그 예측이 맞았는지 틀렸는지를 반복적으로 확인하며 스스로 지도를 수정하고 점점 더 정교하게 만들어갑니다. 또한, ‘강화학습’이라는 과정을 통해 사람의 피드백을 받아들이며 답변의 질을 높이기도 합니다. 어떤 답변이 더 좋은지 사람이 평가해주면, LLM은 그 평가를 바탕으로 더 나은 답변을 생성하도록 스스로를 개선해나가는 것입니다. 하지만 기억해야 할 점은 LLM은 단어의 의미를 진짜로 ‘이해’하는 것이 아니라, 통계적으로 어떤 단어 뒤에 어떤 단어가 오는 것이 가장 자연스러운지를 ‘예측’한다는 사실입니다.

LLM, 만능은 아니라는데? 장단점 확실히 알려줘!

LLM은 정말 자연스럽고 매끄러운 글을 만들어내는 데 아주 뛰어납니다. “이런 내용으로 글 써줘” 또는 “이것 좀 요약해줘” 같은 지시를 매우 잘 이해하고, 그에 맞는 긴 답변도 술술 내놓습니다. 하지만 이런 LLM에게도 몇 가지 약점이 있습니다. 가장 큰 문제점 중 하나는 바로 ‘환각(Hallucination)’ 현상입니다. LLM은 때때로 그럴듯하게 꾸며낸 거짓 정보를 마치 사실인 것처럼 이야기하는 경우가 있습니다. 실제로 CHATGPT가 가짜 판례를 인용하거나, 구글 제미나이의 전신인 바드가 잘못된 과학 정보를 제공한 사례도 있었습니다. LLM은 진실을 말하도록 훈련된 것이 아니라, 그럴듯한 말을 하도록 훈련되었기 때문입니다. 또한, LLM은 한 번도 본 적 없는 새로운 유형의 질문이나 복잡한 수학 문제 해결에는 약한 모습을 보입니다. 패턴을 기반으로 작동하기 때문에, 기존에 학습한 데이터와 전혀 다른 방식의 문제는 풀기 어려워합니다. 미래를 예측하거나 복잡한 계획을 세우고 의사결정을 내리는 것도 현재 LLM에게는 매우 어려운 작업입니다. 마지막으로, 대부분의 LLM은 특정 시점까지의 데이터로 학습되기 때문에 최신 정보에 대해서는 잘 알지 못하거나 부정확한 정보를 제공할 수 있습니다.

LLM도 종류가 다양하다고? 앞으로 어떻게 발전할까?

LLM은 그 크기나 학습 방식, 공개 여부에 따라 여러 종류로 나뉩니다. 최근에는 스마트폰 같은 작은 기기에서도 작동할 수 있도록 만들어진 ‘소형 언어 모델(SLM)’도 등장했습니다. 또한, 답변을 만들어내는 과정을 보여주는 ‘추론 모델’이나, 모델의 설계도나 학습 결과를 공개하는 ‘오픈소스 모델’ 또는 ‘오픈웨이트 모델’도 있어서 기술의 투명성을 높이고 있습니다. 일부 모델은 글자뿐만 아니라 이미지, 영상, 소리까지 이해하고 생성할 수 있는 ‘멀티모달’ 기능을 갖추기도 합니다. 최근에는 LLM을 구글 같은 검색 엔진과 연결하려는 시도도 활발합니다. 이렇게 되면 LLM이 웹에서 최신 정보를 검색하고, 그 결과를 바탕으로 더 정확하고 시의적절한 답변을 제공할 수 있게 됩니다. 하지만 이 경우에도 검색된 정보의 신뢰성을 LLM이 제대로 판단할 수 있을지에 대한 문제는 여전히 숙제로 남아있습니다. 실제로 구글의 AI 요약 검색 결과가 오류를 보이기도 했습니다. LLM은 우리 생활에 점점 더 깊숙이 들어오고 있는 중요한 기술입니다. 이 기술이 어떻게 작동하는지, 어떤 장점과 한계를 가지고 있는지 이해하는 것은 앞으로 다가올 AI 시대를 살아가는 우리에게 꼭 필요한 지혜가 될 것입니다. LLM의 가능성을 최대한 활용하되, 그 한계를 명확히 알고 책임감 있게 사용하는 자세가 중요합니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

LLM 기술, 더 발전시켜야 할까요?

댓글 0

관련 기사