"마이너리티 리포트" 현실로? 영국 정부 살인 예측 AI로 개인정보 5십만명 수집 논란
댓글 0
·
저장 0
2025.04.11 05:54

기사 3줄 요약
- 1 영국, 살인 예측 알고리즘 개발 중
- 2 정신건강 등 50만 명 민감정보 활용 논란
- 3 시민자유 침해와 차별 우려 확산
영국 정부가 영화 '마이너리티 리포트'처럼 범죄 발생 전에 잠재적 살인범을 예측하는 AI 시스템을 개발 중이라는 사실이 알려지면서 논란이 커지고 있습니다. 당초 '살인 예측 프로젝트'라는 이름이었다가 나중에 '위험성 평가 개선을 위한 데이터 공유'(SDIRA)로 이름을 바꾼 이 프로젝트, 과연 어떤 내용일까요?
50만 명의 개인정보 수집... 무엇을 담고 있나?
이 프로젝트는 법무부, 내무부, 그레이터 맨체스터 경찰, 런던 경찰청이 공동으로 진행하고 있습니다. 리시 수낙 전 총리 재임 시절인 2023년 1월에 시작되어 2024년 12월까지 진행될 예정이었던 이 연구는 영국 전역에서 무려 50만 명의 데이터를 수집했습니다. 놀라운 점은 수집된 정보의 범위입니다. 단순한 범죄 기록을 넘어 정신건강 상태, 중독 이력, 자해 기록, 자살 위험 징후, 각종 장애 정보까지 포함한 '특별 범주의 개인 데이터'를 대거 포함하고 있습니다. 더욱이 2015년 이전의 데이터를 활용하고 있어, 현재의 범죄 패턴이나 사회 인구통계학적 변화를 제대로 반영하지 못한다는 지적도 나오고 있습니다.시민 자유 침해와 차별 우려
시민단체들, 특히 스테이트워치(Statewatch)는 이 프로젝트가 개인의 자유를 심각하게 침해하고 국가 감시를 강화할 수 있다고 비판하고 있습니다. 사전 예방적 치안 활동이 무죄 추정의 원칙을 위반할 수 있으며, 이런 시스템의 존재 자체가 표현과 결사의 자유에 위축 효과를 가져올 수 있다는 우려가 제기됩니다. 비판가들은 이 시스템이 기존의 사회적 편향을 영속화하여 차별적 결과를 낳을 가능성이 높다고 지적합니다. 예를 들어, 사회경제적 지위나 지역 인구통계 데이터가 실질적으로는 인종을 대변하는 대리 지표가 되어 소외된 커뮤니티를 불균형적으로 타겟팅할 수 있다는 것입니다. 미국에서의 사례를 보면, 편향된 과거 데이터로 훈련된 알고리즘이 흑인과 히스패닉 지역에 대한 과잉 단속으로 이어진 역사가 있습니다. 연구에 따르면 예측 치안 알고리즘은 기존의 치안 관행의 편향을 증폭시켜, 이미 과잉 단속된 지역에서 더 많은 감시와 단속이 이루어지는 자기충족적 예언으로 이어질 수 있습니다.투명성 부족과 오류 위험
법무부는 이 프로젝트가 순전히 연구 목적이라고 주장하지만, 알고리즘의 내부 작동 방식과 처리하는 특정 데이터에 대한 투명성이 부족해 책임성과 목적 확대 가능성에 대한 정당한 의문이 제기되고 있습니다. 또한 알고리즘이 오판을 내릴 가능성도 큰 문제입니다. 미국에서 사용되는 COMPAS라는 위험 평가 알고리즘은 흑인 피고인을 백인 피고인보다 두 배나 높은 비율로 미래의 범죄자로 잘못 분류했다는 연구 결과가 있습니다. 이러한 오류는 괴롭힘, 낙인찍기, 사생활 침해로 이어질 수 있습니다. 더불어 과거 데이터에 의존해 미래 행동을 예측하는 데는 본질적인 한계가 있습니다. 이러한 모델은 과거 패턴만 반영할 수 있으며, 변화하는 사회 역학이나 개인의 재활을 정확하게 고려하지 못할 수 있습니다.이름 변경의 의미
프로젝트 이름을 '살인 예측 프로젝트'에서 '위험성 평가 개선을 위한 데이터 공유'(SDIRA)로 변경한 것은 프로젝트의 논란이 될 만한 측면을 축소하고, 잠재적으로 차별적인 미래 범죄 예측 시스템이 아닌 단순한 위험 관리 개선 노력으로 프레임을 바꾸려는 시도로 해석될 수 있습니다. 이처럼 영국의 살인 예측 프로젝트는 첨단 기술의 치안 활용이라는 명목 하에 시민의 자유와 프라이버시, 그리고 공정성이라는 근본적 가치를 위협할 수 있는 위험한 실험으로 비판받고 있습니다. 기술 발전이 가져오는 혜택과 위험 사이에서 우리 사회가 어떤 균형점을 찾아야 할지에 대한 중요한 질문을 던지고 있습니다.
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0범죄 예방 위한 AI 감시, 찬성하십니까?
댓글 0개
관련 기사
최신 기사



