환영해🦉
기술/연구

“작은 게 더 맵다” 트랜스레이트젬마, 덩치 큰 AI 압도?

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2026.04.07 10:10
“작은 게 더 맵다” 트랜스레이트젬마, 덩치 큰 AI 압도?

기사 3줄 요약

  • 1 구글, 55개 언어 지원하는 트랜스레이트젬마 전격 공개
  • 2 12B 모델이 27B 모델 성능 뛰어넘는 역대급 효율 달성
  • 3 모바일과 노트북 등 저사양 환경에서도 고품질 번역 가능
구글이 개방형 언어 모델인 젬마 3를 기반으로 한 트랜스레이트젬마를 전격 공개했습니다. 이번 모델은 55개 언어를 지원하며 어디서든 실행할 수 있는 고성능 번역 인공지능입니다. 구글은 장소나 기기 사양에 상관없이 누구나 고품질 번역을 활용할 수 있도록 이번 모델을 설계했다고 발표했습니다. 도입부부터 기존의 상식을 깨는 효율성을 보여주며 학계의 주목을 받고 있습니다.

덩치 큰 모델을 압도하는 효율성의 비밀

기술적으로 가장 놀라운 점은 효율성 대비 뛰어난 성능입니다. 구글에 따르면 120억 파라미터 규모의 모델이 270억 규모의 기존 모델보다 더 높은 점수를 기록했습니다. 이는 인공지능의 크기가 무조건 커야만 좋은 것은 아니라는 사실을 입증한 결과입니다. 모델의 크기가 작아지면 컴퓨팅 비용이 줄어들고 반응 속도는 훨씬 빨라집니다. 이러한 성과는 구글의 최첨단 인공지능인 제미나이의 지식을 이식한 덕분입니다. 지도 미세 조정 단계에서 제미나이가 생성한 고품질 데이터를 대규모로 활용했습니다. 더불어 강화 학습을 통해 문맥에 맞는 자연스러운 번역을 생성하도록 최적화했습니다. 그 결과 55개 언어 전반에서 번역 오류가 대폭 줄어드는 성과를 거두었습니다.

내 노트북과 스마트폰에서도 돌아가는 AI

이번 모델은 사용자의 환경에 맞춰 세 가지 크기로 제공됩니다. 가장 작은 40억 모델은 스마트폰과 같은 모바일 기기에 최적화되었습니다. 이는 인터넷 연결이 없는 오프라인 상태에서도 고품질 번역을 가능하게 만듭니다. 개인 정보 보호가 중요한 상황에서 매우 유용하게 쓰일 전망입니다. 중간 크기인 120억 모델은 일반적인 노트북에서도 무리 없이 구동됩니다. 개발자들이 클라우드 자원 없이도 로컬 환경에서 연구를 진행할 수 있는 수준입니다. 가장 큰 270억 모델은 전문가용 장비에서 최고의 번역 충실도를 제공합니다. 기업의 대규모 서비스 환경에 적합하도록 설계되었습니다.

55개 언어를 넘어 500개 언어까지 확장

트랜스레이트젬마는 단순히 텍스트를 옮기는 수준을 넘어 이미지 속 글자까지 번역합니다. 별도의 튜닝 없이도 이미지 내 텍스트 번역 품질이 개선되었습니다. 이러한 멀티모달 역량은 실시간 표지판 인식이나 문서 스캔 등 다양한 분야로 확장될 수 있습니다. 일상생활에서 인공지능 번역의 활용도가 더욱 높아질 것입니다. 현재 공식적으로 지원하는 언어는 55개이지만 구글은 이미 500개 이상의 언어쌍을 훈련하고 있습니다. 전 세계의 언어 장벽을 허물겠다는 강력한 의지가 담긴 행보입니다. 이번 오픈소스 공개는 전 세계 개발자들이 자유롭게 모델을 개선하는 계기가 될 것입니다. 문화 간 이해를 돕는 혁신적인 도구가 될 것으로 기대됩니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

작은 AI가 큰 AI보다 성능 좋다, 믿어?

댓글 0

관련 기사