AI 거짓말 논란 끝? 국내 첫 ‘믿음직 AI’ 인증…과연 안전할까?
댓글 0
·
저장 0
2025.04.24 16:15

기사 3줄 요약
- 1 포티투마루 LLM42, 국내 첫 AI 신뢰성 인증 획득.
- 2 11개 기준 통과, AI 환각 방지 기술 적용 강조.
- 3 AI 안전 중요성 커져, 인증 기준 투명성 요구.
AI가 똑똑해지는 건 좋은데, 가끔 엉뚱한 소리나 거짓말 같은 정보를 진짜처럼 말하는 걸 본 적 있을 겁니다. 이걸 전문 용어로는 '환각 현상(Hallucination)'이라고 부르는데, 꽤 골치 아픈 문제였습니다.
그런데 최근 국내 한 AI 기업이 이 문제를 해결하고 '믿을 수 있는 AI'를 만들었다며 나섰습니다. 바로 포티투마루(FortyTwo Maru)라는 회사인데요. 이 회사의 인공지능 모델 'LLM42'가 국내 최초로 'AI 신뢰성 인증'이라는 공식 딱지를 받았다고 합니다. 과연 정말 믿을 수 있는 AI 시대가 열리는 걸까요?
국내 1호 ‘믿음직 AI’ 탄생?
포티투마루의 LLM42 모델은 작년 11월, 한국정보통신기술협회(TTA)로부터 국내 대규모 언어 모델(LLM) 중에서는 처음으로 'AI 신뢰성 인증(CAT)'을 받았습니다. LLM은 ChatGPT처럼 방대한 데이터를 학습해 사람처럼 말하고 글을 쓰는 똑똑한 AI를 말합니다. TTA는 우리나라의 정보통신 기술 표준을 정하고 시험, 인증하는 중요한 기관입니다. 여기서 AI가 믿을 만한지를 평가하는 기준을 만들어 처음으로 인증서를 발급한 건데요. AI 기술이 우리 사회 곳곳으로 빠르게 퍼져나가면서, AI가 내놓는 정보나 판단이 얼마나 정확하고 안전한지가 매우 중요해졌기 때문입니다. 이번 인증은 그런 점에서 의미가 있습니다. 국내 기술로 만든 AI도 국제적인 수준의 신뢰성을 확보할 수 있다는 가능성을 보여준 셈이니까요.AI ‘거짓말’ 막는 기술은 뭐야?
AI가 똑똑해 보이지만, 가끔은 잘 모르는 내용을 그럴듯하게 지어내거나 사실과 다른 정보를 진짜처럼 말하는 '환각 현상'이 문제입니다. AI가 학습한 데이터에 오류가 있거나, 질문의 의도를 잘못 파악했을 때 이런 일이 생기곤 합니다. 포티투마루는 이런 문제를 해결하기 위해 자체 개발한 기술들을 LLM42에 적용했다고 설명합니다. 대표적인 것이 'RAG42'와 'MRC42'라는 기술인데요. 쉽게 말하면, AI가 답변을 만들어낼 때 관련된 최신 정보를 한 번 더 찾아보고(RAG), 질문에 맞는 정확한 답을 딱 뽑아내는(MRC) 능력을 키운 것입니다. 마치 우리가 과제를 할 때 책이나 인터넷에서 자료를 찾아보고, 질문의 핵심에 맞는 내용만 골라 답하는 것과 비슷하다고 생각하면 이해하기 쉽습니다. 이런 기술 덕분에 LLM42가 더 정확하고 신뢰도 높은 답변을 할 수 있게 되었다는 것이 회사 측의 설명입니다.근데 진짜 믿을 만한 거야?
TTA의 AI 신뢰성 평가는 책임성, 안전성, 투명성, 그리고 다양성 존중이라는 4가지 큰 분야 아래 총 11개의 세부 요구사항을 기준으로 이루어졌다고 합니다. 포티투마루의 LLM42는 이 기준들을 모두 통과했다는 것이죠. 하지만 구체적으로 어떤 11가지 항목을 어떻게 평가했는지, 각 항목의 기준은 무엇인지 등 자세한 내용은 외부에 투명하게 공개되지 않았습니다. 이 때문에 일각에서는 인증의 실효성에 대해 의문을 제기하기도 합니다. 기준을 정확히 알아야 얼마나 엄격한 심사를 통과했는지, 다른 AI 모델들은 왜 아직 인증을 받지 못했는지 등을 객관적으로 판단할 수 있기 때문입니다. 물론 포티투마루는 AI 안전성 연구 컨소시엄에 참여하는 등 안전하고 책임감 있는 AI를 만들기 위해 노력하고 있다는 점도 밝혔습니다. 또한 산업별 특성에 맞는 가벼운 AI 모델(경량 모델)을 만들어 특정 분야에서의 효율성과 안전성을 높이는 방향으로 나아가고 있다고 합니다.‘착한 AI’ 만들려면?
이번 포티투마루의 국내 첫 AI 신뢰성 인증은 분명 의미 있는 첫걸음입니다. AI 기술 경쟁이 치열해지는 가운데, 기술력뿐만 아니라 '신뢰'라는 가치가 중요하다는 것을 보여주는 사례이기 때문입니다. 하지만 이것만으로 AI의 모든 문제를 해결할 수는 없습니다. AI가 정말 우리 사회에 도움이 되는 '착한 AI'가 되려면, 기술 개발 노력과 함께 AI를 평가하는 기준을 투명하게 공개하고, 사회적으로 함께 논의하는 과정이 반드시 필요합니다. 기술은 계속 발전할 것이고, 그에 따라 새로운 윤리적, 사회적 문제들도 계속 나타날 것입니다. AI 신뢰성 인증이 일회성 이벤트로 끝나지 않고, 꾸준히 업데이트되고 발전하여 정말 믿을 수 있는 AI 시대를 여는 데 기여할 수 있기를 기대해 봅니다.
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 인증 제도, 신뢰도 높아질까?
댓글 0개
관련 기사
최신 기사



