“AI 안전팔이 위선이었나” 일론 머스크, 동료들에게 공개 저격 당했다
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.07.17 18:40

기사 3줄 요약
- 1 오픈AI, 일론 머스크의 xAI 공개 비판
- 2 AI 안전 평가 결과 미공개, 업계 관행 무시 논란
- 3 과거 AI 안전 외치던 일론 머스크, 이중잣대 비판
일론 머스크의 AI 회사 xAI가 업계의 거센 비판에 직면했습니다. 경쟁사인 오픈AI와 앤트로픽의 연구원들이 xAI의 AI 챗봇 ‘그록’이 안전 조치 없이 배포되었다며 “완전히 무책임하다”고 공개적으로 비판한 것입니다.
이례적인 이번 공개 비판은 AI의 안전성을 둘러싼 기업들의 갈등이 수면 위로 떠올랐음을 보여줍니다. AI 모델의 훈련 방식과 위험성 평가 결과를 담은 ‘시스템 카드’를 공개하지 않은 것이 문제의 핵심입니다.
그래서 시스템 카드가 뭔데?
시스템 카드는 AI가 어떻게 만들어졌고, 어떤 위험이 있는지 알려주는 일종의 ‘사용 설명서’이자 ‘안전 보고서’입니다. 소비자가 제품 성분표를 확인하듯, 연구자와 사용자는 시스템 카드를 보고 AI의 안전성을 판단합니다. 오픈AI나 구글 같은 대형 AI 기업들은 가장 강력한 모델을 출시하기 전, 이런 평가 보고서를 공개하는 것을 일반적인 관행으로 여깁니다. 하지만 xAI는 이러한 최소한의 투명성 확보 절차조차 무시하고 있습니다. 그저 벤치마크 결과만 내세우며 “세계 최고 모델”이라는 홍보에만 집중하고 있다는 지적입니다.AI 안전 외치던 머스크, 말 바꾼 거야?
이번 논란이 더욱 아이러니한 점은 일론 머스크가 과거 AI 안전의 중요성을 가장 강력하게 주장하던 인물 중 하나였다는 사실입니다. 그는 불과 작년에 “강력한 AI 개발을 6개월간 멈추자”고 주장하며 전문가들의 서명을 이끌기도 했습니다. 스스로 AI 안전의 파수꾼을 자처했던 그가 정작 자신의 회사에서는 기본적인 안전 절차를 지키지 않는 이중적인 태도를 보인 셈입니다. 이러한 행보는 그가 AI 안전을 경쟁사를 견제하기 위한 수단으로만 이용한 것이 아니냐는 비판으로 이어지고 있습니다.단순 말싸움을 넘어선 심각한 문제
그록의 안전 문제는 단순한 업계의 말싸움으로 끝나지 않을 수 있습니다. 그록이 곧 테슬라 차량에 탑재되고, 미국 국방부와의 계약도 추진 중이기 때문입니다. 기본적인 안전장치 없이 강력한 AI가 실생활에 적용될 경우, 예측 불가능한 사회적 위험을 초래할 수 있습니다. 이번 사건은 AI 산업의 자율 규제만으로는 한계가 있음을 보여주며, 정부 차원의 강력한 규제와 사회적 감시가 필요하다는 목소리에 힘을 싣고 있습니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 안전보다 혁신 속도가 우선인가?
그렇다
0%
0명이 투표했어요
아니다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



