“범행 8개월 전 감지” 오픈AI, 총격 위험 알고도 침묵?
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.02.25 07:25
기사 3줄 요약
- 1 캐나다 총격범 챗GPT로 범행 미리 연습
- 2 오픈AI 위험 알았지만 경찰 신고 거부
- 3 캐나다 정부 경영진 소환해 책임 추궁
캐나다의 한 평화로운 마을에서 끔찍한 비극이 발생했습니다. 8명의 목숨을 앗아간 총기 난사 사건의 범인이 범행 8개월 전 이미 인공지능에게 자신의 계획을 들켰다는 사실이 밝혀졌습니다. 오픈AI가 이 위험 신호를 미리 감지하고도 경찰에 신고하지 않았다는 논란이 일파만파 커지고 있습니다.
AI는 비극을 미리 알고 있었다
2026년 2월 캐나다 텀블러리지에서 18세 소년 제시 반 루트셀라르가 총기를 난사하는 사건이 벌어졌습니다. 이 사건으로 무고한 시민 8명이 사망하고 25명이 다치는 참사가 발생했습니다. 그런데 충격적인 사실은 이 소년이 이미 범행 8개월 전부터 챗GPT와 대화를 나누며 범죄를 모의했다는 점입니다. 현지 보도에 따르면 소년은 챗GPT를 통해 구체적인 총기 폭력 시나리오를 작성했습니다. 오픈AI의 오용 탐지 시스템은 이를 즉각 포착하고 소년의 계정을 차단했습니다. 당시 회사 내부 직원들은 상황이 심각하다고 판단해 경찰에 신고해야 한다고 강력히 주장했습니다. 하지만 경영진은 신고하지 않기로 결정했습니다. 소년의 대화 내용이 즉각적이고 구체적인 신체적 위해를 가할 임박한 위험 기준에 미치지 못한다고 봤기 때문입니다. 사용자의 개인정보 보호 문제도 결정에 영향을 미친 것으로 보입니다.기업의 침묵이 불러온 참사
결국 오픈AI의 침묵 속에 소년의 위험한 계획은 실행으로 옮겨졌습니다. 신고가 이루어지지 않은 사이 소년은 실제 범행을 준비했고 돌이킬 수 없는 비극을 저질렀습니다. 이 사실이 알려지자 캐나다 사회는 큰 충격에 빠졌고 정부는 즉각 대응에 나섰습니다. 캐나다 정부 당국자에 따르면 오픈AI 경영진을 즉시 오타와로 소환했습니다. 위험 징후를 포착하고도 수사 당국에 알리지 않은 이유를 추궁하기 위해서입니다. 이번 사건은 AI 기업이 사용자의 위험 행동을 어디까지 감시하고 개입해야 하는지에 대한 윤리적 논쟁에 불을 지폈습니다.기술 발전 뒤에 숨은 윤리적 딜레마
이번 사건은 AI 기술이 가진 양날의 검을 명확히 보여줍니다. AI가 범죄를 미리 예측할 수 있는 기술을 가졌음에도 이를 제대로 활용하지 못했다는 비판이 쏟아지고 있습니다. 기업의 내부 규정이 공공의 안전보다 우선시되었다는 지적도 피하기 어려운 상황입니다. 전문가들에 따르면 AI 기업의 사회적 책임에 대한 법적 가이드라인이 시급하다고 합니다. 기술은 발전했지만 이를 통제하고 관리할 제도는 여전히 미흡하기 때문입니다. 앞으로 제2의 텀블러리지 사건을 막기 위해 사회적 합의가 절실한 시점입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 기업, 범죄 징후 감지 시 무조건 신고해야 한다?
신고해야
0%
0명이 투표했어요
신고 불필요
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사