“범죄 계획 짠 챗GPT?” 살인 사건 연루 의혹에 플로리다주 정격 조사
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.04.10 18:00
기사 3줄 요약
- 1 챗GPT 총기 사건 연루 의혹에 플로리다주 조사 착수
- 2 범행 계획 수립 과정서 AI 활용 정황 포착돼 논란
- 3 AI 개발사 책임 범위와 규제 선례 남길 세기의 재판
미국 플로리다주 법무장관 제임스 우트마이어가 최근 오픈AI를 상대로 강력한 조사를 시작했습니다. 지난해 발생한 플로리다 주립대학교 총격 사건에 챗GPT가 범행 도구로 쓰였다는 의혹이 제기되었기 때문입니다.
이번 조사는 AI 기술이 범죄 행위에 악용될 수 있다는 우려를 근본적으로 다루고 있습니다. 제임스 우트마이어 장관은 AI가 인류 발전을 도와야지 파괴해서는 안 된다는 원칙을 강조했습니다.
범죄자가 AI와 대화하며 계획을 짰나
사건의 유가족은 범인이 챗GPT와 범행 계획을 세웠다며 오픈AI를 상대로 소송을 준비하고 있습니다. 캐나다에서도 총격범이 AI와 계획을 논의했다는 유사한 사례가 보고된 적이 있습니다. 미국 월스트리트저널에 따르면 정신 질환을 앓던 사용자가 챗GPT와 대화하다 망상이 깊어진 사건도 있었습니다. 전문가는 이를 AI 정신병이라 부르며 챗봇과의 소통이 사용자의 정신 상태에 미치는 악영향을 경고합니다.개발사는 책임이 없다고 주장할까
오픈AI 측은 매주 9억 명 이상이 긍정적인 목적으로 서비스를 이용한다고 반박했습니다. 또한 기술이 안전하게 작동하도록 설계되었으며 이번 조사에도 적극 협조하겠다는 입장을 내놓았습니다. 하지만 서비스 이용 약관이 모든 법적 책임을 사용자에게 미루고 있다는 비판은 피하기 어렵습니다. 이는 개발사가 안전 설계를 주장하면서도 결과물에 대한 책임은 회피하는 모순을 보여줍니다.앞으로 우리 사회에 어떤 영향을 미칠까
이번 조사는 AI 개발 기업의 법적 책임 범위를 정하는 데 매우 중요한 선례가 될 전망입니다. AI의 자율적인 행동이 일으키는 사회적 피해에 대해 개발사가 어디까지 책임질지 논의가 시작되었습니다. 앞으로 인공지능 기술의 발전과 사회적 안전 사이에서 균형을 찾는 과정이 더 활발해질 것입니다. 우리 삶에 깊숙이 들어온 AI가 무기가 되지 않도록 법률 시스템의 진화가 필요한 시점입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 범죄 악용 시 개발사도 책임져야 한다
책임있다
0%
0명이 투표했어요
책임없다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사