환영해🦉
정책/윤리

“AI 안전 최악” 구글·OpenAI, 뭘 숨기려 하나?

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.04.20 20:51
“AI 안전 최악” 구글·OpenAI, 뭘 숨기려 하나?

기사 3줄 요약

  • 1 구글·OpenAI, AI 안전 보고서 공개 미흡 비판
  • 2 특정 수치·테스트 내용 누락, 검증 어려움
  • 3 전문가들 "투명성 부족, 신뢰·안전 저해" 경고
구글과 오픈AI(OpenAI) 같은 거대 AI 기업들이 요즘 따가운 눈총을 받고 있습니다. 새로운 AI 모델을 내놓으면서 안전성 검사 결과를 제대로, 또 제때 공개하지 않고 있다는 비판 때문입니다. 마치 새 자동차를 출시하면서 충돌 테스트 결과를 숨기거나 나중에 알려주는 것과 비슷하다고 볼 수 있습니다. 사람들이 "이거 정말 믿고 써도 괜찮은 거야?" 하고 걱정하는데, 기업들은 "괜찮다"고만 할 뿐, 구체적인 증거를 충분히 보여주지 않는다는 지적이 나옵니다. 이런 불투명한 태도가 AI 기술에 대한 사회 전체의 불신을 키울 수 있다는 우려의 목소리가 커지고 있습니다.

구글 제미나이, 뭘 숨겼길래?

구글이 새로 내놓은 ‘제미나이 2.5 프로’ 모델의 안전성 평가 보고서가 대표적인 사례입니다. 이 보고서에는 AI가 얼마나 위험한 답변을 걸러내는지, 해커들의 공격적인 질문(‘레드팀 테스트’라고 부릅니다)에 어떻게 반응하는지에 대한 구체적인 내용이 빠져 있었습니다. 예를 들어, 위험 물질 제조법 같은 질문에 어떻게 답했는지, 어떤 방식으로 테스트했는지 상세한 설명이 없었습니다. AI가 스트레스 상황에서도 안전하게 작동하는지, 특정 편견을 드러내지는 않는지 등에 대한 명확한 수치도 제시되지 않았습니다. 심지어 구글 스스로 만든 안전 기준(Frontier Safety Framework)에 따라 평가했는지조차 불분명했습니다. 보고서 자체가 모델이 이미 사용된 지 몇 주나 지나서 공개되어, 전문가들이 "뒷북 공개인데 내용마저 부실하다"고 비판했습니다. 인공지능 정책전략 연구소의 피터 윌데포드 공동 설립자는 구글 보고서를 두고 "매우 빈약하다"고 평가했습니다.

OpenAI도 예외 아냐?

챗GPT 개발사 OpenAI의 상황도 비슷합니다. 이들은 최근 ‘GPT-4.1’이라는 새 모델을 출시하면서 아예 안전성 보고서(‘시스템 카드’라고 부릅니다)를 내놓지 않았습니다. OpenAI 측은 "GPT-4.1이 사회에 큰 영향을 줄 만한 ‘첨단 모델’ 수준은 아니기 때문"이라고 해명했습니다. 기존 기술에서 약간 개선된 정도라 자세한 보고서까지는 필요 없다는 입장이죠. 하지만 일부 전문가들은 생각이 다릅니다. 아무리 작은 변화라도 새로운 AI 모델이라면 안전성 평가와 투명한 정보 공개는 필수라는 것입니다. 전 OpenAI 안전 연구원 스티븐 애들러는 보고서 제출이 의무는 아니지만, 투명성을 위해 매우 중요하다고 강조했습니다.

왜 이렇게까지 숨기는 걸까?

이런 대형 AI 기업들의 행태를 두고 비판의 목소리가 높습니다. 이들은 겉으로는 AI 정책 논의에 참여하고 안전 기준 마련에 협력하는 듯 보이지만, 정작 구속력 있는 규제나 외부 감시에는 소극적이라는 지적입니다. 안전 보고서 공개를 미루거나 내용을 부실하게 만드는 것은 결국 AI 기술과 개발사에 대한 대중의 신뢰를 깎아내리는 행위입니다. 정보가 투명하게 공개되지 않으면, 외부 연구자들이 잠재적 위험을 찾아내고 해결책을 모색하기도 어렵습니다. 민주주의기술센터의 케빈 뱅크스턴 선임 고문은 이런 상황을 "AI 안전과 투명성에 있어 바닥 경쟁을 벌이는 것"이라고 꼬집으며, 기업들이 책임감 있는 개발보다 시장 경쟁에만 몰두하는 것 아니냐는 우려를 표했습니다.

그래서 앞으로 어떻게 될까?

구글과 OpenAI를 둘러싼 논란은 AI 기술 발전 속도와 안전 확보 사이의 균형점을 어떻게 찾아야 할지에 대한 중요한 질문을 던집니다. 전문가들은 기업들이 자체 약속을 지키고 있는지조차 외부에서 확인하기 어렵다고 지적합니다. 뱅크스턴 고문은 구글 보고서의 부실함이 "가장 강력한 모델을 출시하기 전에 안전 테스트를 마치지 않았거나, 심지어 아직도 완료하지 못했다는 것을 시사한다"고 강하게 비판했습니다. AI가 우리 사회에 점점 더 깊숙이 들어오는 만큼, 개발 과정의 투명성과 철저한 안전 검증은 아무리 강조해도 지나치지 않습니다. 앞으로 AI 기술을 안전하고 책임감 있게 발전시키기 위한 사회적 논의와 제도 마련이 더욱 중요해질 것으로 보입니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 기업의 안전 보고서 비공개, 용납할 수 있나?

댓글 0

관련 기사