환영해🦉
기술/연구

구글 AI가 '눈'을 뜨다... 사진 속 관계까지 읽는 제미나이 2.0 공개

댓글 0 · 저장 0 2025.04.09 09:56
구글 AI가 '눈'을 뜨다... 사진 속 관계까지 읽는 제미나이 2.0 공개

기사 3줄 요약

  • 1 구글 AI 모드, 이미지 업로드 기능 갖춘 멀티모달 검색으로 진화
  • 2 제미나이 2.0 기반 AI, 사진 속 사물 간 관계까지 분석 가능
  • 3 안드로이드·iOS 앱에서 수백만 랩스 사용자에게 확대 제공

구글, 이미지 인식 넘어선 AI 검색 기능 확대

구글이 자사의 AI 검색 서비스인 'AI 모드'를 미국 내 더 많은 사용자에게 확대하면서, 기존 이미지 인식 기술을 한층 뛰어넘는 새로운 기능을 선보였습니다. 이번에 업그레이드된 AI 모드는 단순히 사진 속 물체를 인식하는 것을 넘어, 이미지 내 사물들 간의 관계까지 이해하고 설명하는 고급 기능을 갖추고 있습니다. 구글의 이번 업데이트는 안드로이드와 iOS 앱에서 별도의 검색 탭으로 제공되며, 수백만 명의 구글 랩스 사용자들이 새롭게 이용할 수 있게 되었습니다. 특히 이 서비스를 위해 복잡한 질문을 처리할 수 있도록 맞춤형 '제미나이 2.0' 버전이 적용되었다는 점이 주목할 만합니다.

사진 속 관계까지 분석하는 멀티모달 기술

이번 멀티모달 업그레이드의 핵심은 사용자가 이미지를 업로드하고 텍스트 질문과 함께 검색할 수 있다는 점입니다. 구글은 기존의 렌즈(Lens) 기술과 AI를 결합해 더욱 직관적이고 정확한 검색 경험을 제공합니다. 가령 책장 사진을 찍어 올리면, AI는 단순히 "이것은 책장이고, 여기 책들이 있습니다"라고 인식하는 수준을 넘어섭니다. 책의 배열 방식, 장르별 구분, 심지어 책장의 정리 상태까지 파악하여 맥락을 이해하는 것이 가능해졌습니다. 또한 음식 접시나 어수선한 서랍장 안의 물건들을 찍었을 때도 각 물체들 사이의 관계를 분석해 더 의미 있는 정보를 제공합니다.

일상생활에 가져올 변화

이 기술이 가져올 변화는 상당할 것으로 예상됩니다. 예를 들어, 요리를 하다가 냉장고에 있는 재료들을 찍어 "이것으로 만들 수 있는 요리는?"이라고 물으면, AI는 단순히 각 재료를 나열하는 대신 재료들의 조합 가능성을 고려한 레시피를 제안할 수 있습니다. 또한 여행 중 낯선 건물이나 풍경을 찍어 "이것의 역사적 의미는?"이라고 질문했을 때, 건물의 구조적 특징과 주변 환경까지 고려한 더 깊이 있는 설명을 제공할 수 있게 됩니다.

기술적 한계와 향후 전망

물론 이러한 기술에도 한계는 존재합니다. 구글의 AI 모드는 아직 모든 이미지를 완벽하게 이해하지 못하며, 특히 매우 복잡하거나 모호한 장면에서는 오류를 보일 수 있습니다. 또한 현재로서는 미국 내 사용자들에게만 확대 제공되는 단계로, 글로벌 출시 일정은 아직 명확하지 않습니다. 그럼에도 이번 업데이트는 시각적 정보 검색과 인터랙션 방식에 근본적인 변화를 가져올 잠재력을 지니고 있습니다. 사용자들이 일상 속에서 접하는 모든 시각적 정보를 더 깊이 이해하고 활용할 수 있게 됨으로써, 정보 접근성과 유용성이 크게 향상될 것으로 기대됩니다. 이제 인공지능은 단순히 우리가 무엇을 보고 있는지 인식하는 것을 넘어, 우리가 보는 것들 사이의 관계와 맥락까지 이해하기 시작했습니다. 이는 인공지능과 인간의 상호작용 방식에 있어 중요한 이정표가 될 것입니다.
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

구글 AI의 이미지 검색, 편리함 vs 개인정보 침해?

댓글 0

최신 기사

사용자 피드백