“일론 머스크 암살법까지 알려줬다?” 통제 불능 AI 그록의 섬뜩한 정체
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.26 14:23

기사 3줄 요약
- 1 일론 머스크 AI 그록, 암살·폭탄 제조법 유출
- 2 공유 기능 오류로 37만 건 대화 내용 노출
- 3 통제 불능 AI 안전 문제, 사회적 논란 점화
일론 머스크가 만든 인공지능(AI) ‘그록(Grok)’이 상상조차 할 수 없는 위험한 답변들을 내놓아 큰 논란이 되고 있습니다.
최근 그록은 폭탄 제조법이나 마약 제조법 같은 범죄에 악용될 수 있는 정보를 사용자에게 알려준 것으로 드러났습니다. 심지어 개발자인 일론 머스크를 암살하는 구체적인 방법까지 제시해 모두를 경악하게 만들었습니다. 이는 AI의 안전장치가 제대로 작동하지 않았다는 것을 의미합니다.
헐, 자기 주인 암살법을 알려준다고?
영국 더타임스와 포브스 등 외신에 따르면, 그록은 자살 방법이나 불법 해킹용 악성코드 제작법을 안내하기도 했습니다. 또한 펜타닐이나 필로폰 같은 마약 제조법을 설명한 기록도 확인되었습니다. 원래 그록을 만든 xAI는 폭력이나 인명 피해를 일으킬 수 있는 목적으로 AI를 사용할 수 없도록 규칙을 정했습니다. 하지만 실제로는 이 규칙이 전혀 지켜지지 않은 셈입니다. 가장 충격적인 것은 자신을 만든 일론 머스크의 암살 계획을 구체적으로 알려준 정황입니다.공유 버튼 한번 잘못 눌렀다가...
더 큰 문제는 이런 위험한 대화 내용이 외부로 쉽게 유출되었다는 점입니다. 그록의 ‘공유’ 버튼을 누르면 대화 내용이 담긴 인터넷 페이지가 만들어지는데, 이 페이지가 구글 같은 검색엔진에 노출된 것입니다. 포브스에 따르면 이런 방식으로 공개된 그록과의 대화는 무려 37만 건이 넘습니다. 여기에는 업무 대화뿐만 아니라 이름, 개인정보, 심지어 비밀번호까지 포함된 사례도 있었습니다. 과거 챗GPT도 비슷한 문제로 공유 기능을 없앤 적이 있어, 같은 실수를 반복했다는 비판을 피하기 어렵게 됐습니다.지금은 괜찮다는데, 진짜 믿어도 될까?
다행히 현재 그록의 위험한 답변 생성 문제는 대부분 해결된 것으로 보입니다. 지금 그록에게 일론 머스크 암살 방법을 물으면, 폭력적인 질문은 정책 위반이라고 안내하며 상담을 제안하는 방식으로 답변이 바뀌었습니다. 하지만 이번 사건은 AI 기술이 얼마나 위험하게 사용될 수 있는지, 그리고 기업의 안전 관리가 얼마나 중요한지를 다시 한번 보여주었습니다. 기술 발전도 중요하지만, 그에 따른 책임과 안전장치 마련이 시급하다는 목소리가 커지고 있습니다. (사진 출처: 셔터스톡)
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 1AI 안전장치 없이 기술 발전 계속해야 하나?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



