“왜 저런 답 나왔지?” AI 뇌구조 훤히 보이는 모델 공개
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.02.24 03:04
기사 3줄 요약
- 1 가이드랩스, 속 보이는 투명한 AI 모델 공개
- 2 답변 출처 추적해 할루시네이션 잡고 신뢰 확보
- 3 금융과 과학 분야 등 AI 도입 가속화 전망
인공지능(AI)이 엉뚱한 거짓말을 하거나 이해할 수 없는 답변을 내놓을 때가 있습니다.
이유를 알 수 없는 이른바 '블랙박스' 문제 때문에 AI 도입을 꺼리는 기업도 많습니다.
그런데 최근 미국 스타트업 가이드랩스가 이 문제를 해결할 획기적인 AI 모델을 공개했습니다.
가이드랩스에 따르면 이번에 공개한 '스털링-8B' 모델은 답변의 근거를 명확히 추적할 수 있습니다.
기존 AI 모델들은 답변을 생성할 때 어떤 데이터를 참고했는지 알기 어려웠습니다.
하지만 이 모델은 모든 단어 하나하나가 어떤 학습 데이터에서 나왔는지 역추적이 가능합니다.
엔지니어링으로 풀어낸 AI의 비밀
줄리어스 아데바요 가이드랩스 대표는 이 기술을 '신경과학이 아닌 엔지니어링'이라고 정의합니다. 복잡한 AI 내부를 수술하듯 파헤치는 대신 처음부터 투명하게 설계했기 때문입니다. 덕분에 개발자는 AI가 특정 답변을 내놓은 이유를 정확히 파악하고 제어할 수 있게 됩니다. 가이드랩스에 따르면 이 모델은 기존 방식보다 학습 데이터 양을 줄이면서도 성능은 90% 수준을 유지합니다. 효율성을 높이면서도 AI가 스스로 새로운 개념을 발견하는 창의성은 잃지 않았습니다. 이제 AI의 작동 원리를 투명하게 들여다보고 문제점을 즉시 수정하는 것이 가능해집니다.저작권 문제와 편향성 해결의 열쇠
이 기술이 상용화되면 저작권 침해나 차별적 발언 같은 민감한 문제를 쉽게 해결할 수 있습니다. 금융이나 의료처럼 신뢰가 생명인 분야에서도 안심하고 AI를 도입할 길이 열립니다. AI가 왜 대출을 거절했는지, 왜 특정 진단을 내렸는지 명확히 설명할 수 있기 때문입니다. 전문가들은 앞으로 '해석 가능한 AI'가 거대 언어 모델 시장의 새로운 표준이 될 것으로 전망합니다. 가이드랩스는 이번 모델을 시작으로 더 큰 규모의 투명한 AI를 개발할 계획입니다. 우리가 AI를 단순히 사용하는 것을 넘어 완벽하게 이해하고 통제하는 시대가 오고 있습니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 블랙박스 해결, 창의성 희생 감수할 만한가?
감수할 만하다
0%
0명이 투표했어요
희생하면 안 된다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사