환영해🦉
정책/윤리

“AI가 거짓말하면 누가 책임지나?” 네이버에 날아온 섬뜩한 경고장

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.07.02 15:45
“AI가 거짓말하면 누가 책임지나?” 네이버에 날아온 섬뜩한 경고장

기사 3줄 요약

  • 1 네이버 자율규제위, AI 서비스 위험성 공식 경고
  • 2 AI 문제 발생 시 책임질 구체적 방안 마련 요구
  • 3 이용자 보호와 소상공인 지원 강화 등도 함께 제언
네이버의 인공지능(AI) 서비스가 만약 거짓말을 하거나 문제를 일으키면 누가 어떻게 책임져야 할까요. 최근 네이버 내부에 설치된 전문가 위원회가 바로 이 점을 지적하며 강력한 경고 메시지를 보냈습니다. AI가 사고를 쳤을 때를 대비한 구체적인 해결책과 책임 절차를 문서로 만들어야 한다고 공식적으로 요구한 것입니다. 이는 AI 기술이 발전하는 만큼, 그에 따른 사회적 책임도 중요하다는 의미를 담고 있습니다. 네이버가 AI 시대의 리더가 되려면 반드시 풀어야 할 숙제입니다.

그래서 AI가 사고 치면 어쩌라고?

네이버 이용자보호 및 자율규제위원회는 외부 전문가들로 구성된 독립적인 기구입니다. 이들은 네이버의 서비스가 이용자에게 피해를 주지 않는지 감시하고 개선 방안을 제안하는 역할을 합니다. 최근 위원회는 2차 활동 보고서를 공개했습니다. 여기서 가장 중요하게 다룬 주제가 바로 AI의 안전성 문제입니다. 위원회는 “네이버의 AI가 잘못된 정보를 만들거나 예상치 못한 문제를 일으켰을 때, 회사가 어떻게 책임지고 해결할 것인지 명확한 계획을 세워야 한다”고 강조했습니다. 즉, 말로만 책임지겠다고 하는 것이 아니라 구체적인 대응 매뉴얼을 만들라는 요구입니다.

AI 말고 다른 건 없어?

이번 보고서에는 AI 문제뿐만 아니라 다양한 내용이 포함됐습니다. 소상공인, 즉 작은 가게 사장님들을 돕기 위한 교육 프로그램인 '비즈니스 스쿨'을 더 강화하라는 내용도 있습니다. 또한 이용자들이 자신도 모르게 원치 않는 결제를 하도록 유도하는 ‘다크패턴’을 막기 위한 방안도 제안했습니다. 사용자를 교묘하게 속이는 행위를 막기 위해 정기적으로 검증 체계를 갖춰야 한다는 것입니다. 이 외에도 창작자 지원 확대, AI 기술을 활용한 고객센터 서비스 개선 등 이용자와 파트너 모두를 위한 다각적인 제안이 담겼습니다.

앞으로 네이버는 어떻게 할까?

위원회는 기술의 발전과 이용자의 권리가 조화를 이뤄야 한다고 말합니다. 기술이 아무리 뛰어나도 사람을 보호하지 못하면 의미가 없다는 뜻입니다. 네이버 측은 위원회의 제안을 바탕으로 이용자가 안심하고 쓸 수 있는 환경을 만들겠다고 답했습니다. 이제 공은 네이버에게 넘어갔습니다. 앞으로 네이버가 얼마나 책임감 있는 자세로 AI 서비스를 운영하고, 위원회의 권고를 실질적인 정책으로 만들어낼지 지켜봐야 할 부분입니다. AI 시대를 이끄는 기업의 책임감이 시험대에 올랐습니다. (사진 출처: 네이버)
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 오류 발생 시 개발사가 법적 책임져야 하나?

댓글 0

관련 기사