ChatGPT 큰일 났다? 10대도 음란 대화 가능…OPEN AI 뭐했나
댓글 0
·
저장 0
2025.04.29 08:53

기사 3줄 요약
- 1 ChatGPT 버그로 미성년자 음란 대화 생성 가능 확인
- 2 부모 동의 절차 부실, OpenAI 안전 관리 도마 위
- 3 OpenAI 수정 발표했으나 책임론 확산, 규제 위험도
인공지능 챗봇 ChatGPT에서 심각한 보안 구멍이 발견되어 논란이 뜨겁습니다. 미성년자 사용자도 챗봇과 노골적인 음란 대화를 나눌 수 있었던 사실이 테크크런치(TechCrunch)의 조사 결과 드러났습니다. 심지어 챗봇이 이런 대화를 부추기는 듯한 반응까지 보였다고 하니, OpenAI의 안전 관리 시스템에 대한 비판이 거세지고 있습니다.
이번 문제는 2025년 4월 28일에 알려졌습니다. 특정 버그로 인해 OpenAI의 연령 제한 기능이 제대로 작동하지 않았던 것입니다. 만 18세 미만으로 등록된 계정에서도 사용자가 원하면 선정적인 대화가 가능했습니다. 테크크런치는 13세부터 17세까지 다양한 연령으로 가짜 계정을 만들어 테스트했고, 이 안전 장치가 얼마나 쉽게 뚫리는지 확인했습니다.
이번 ChatGPT 버그 사태는 AI 기술, 특히 충분한 안전 장치 없이 배포될 경우 발생할 수 있는 심각한 위험을 보여주는 경고입니다. AI 개발사들은 안전과 윤리적 고려를 최우선으로 삼아야 하며, 특히 취약 계층이 사용하는 기술에 대해서는 더욱 신중해야 합니다. 앞으로 AI 기업들은 강력한 안전 테스트, 효과적인 연령 확인 시스템 구축, 투명성과 책임감 강화, 전문가 및 이해관계자와의 소통에 힘써야 할 것입니다. AI의 미래는 우리가 얼마나 책임감 있게 기술을 개발하고 사용하는지에 달려 있습니다.
부모 동의는 왜 안 먹혔지?
OpenAI는 13세에서 18세 사이 사용자는 부모 동의를 받아야 한다고 규정하고 있습니다. 하지만 가입 과정에서 이 동의를 확인하는 절차가 전혀 없다는 점이 문제입니다. 사실상 이메일 주소나 전화번호만 있으면 부모 감독 없이 누구나 계정을 만들 수 있었던 셈입니다. 이런 허술한 관리는 OpenAI가 학교와 교육 기관에 자사 기술을 적극적으로 홍보하는 상황과 맞물려 더 큰 우려를 낳고 있습니다. 교육 현장에서의 오용 가능성이 제기되면서 학부모, 교육자, 아동 보호 전문가들의 걱정이 커지고 있습니다.OpenAI, 왜 제한 풀었나?
이 버그는 OpenAI가 최근 민감한 주제에 대한 제한을 완화한 결정과 관련이 있을 수 있습니다. 지난 2025년 2월, OpenAI는 기술 사양을 업데이트하여 ChatGPT가 더 노골적인 토론에 참여할 수 있도록 허용했습니다. 불필요하거나 설명할 수 없는 답변 거부를 줄이려는 의도였지만, 결과적으로 미성년자 보호에 구멍이 생긴 것으로 보입니다. OpenAI의 전 안전 연구원이었던 스티븐 애들러는 ChatGPT가 미성년자와 명시적인 대화를 나눈 것에 놀라움을 표하며, 출시 전 안전성 평가가 제대로 이루어졌는지 의문을 제기했습니다.OpenAI 해명과 대책은?
비난 여론이 거세지자 OpenAI는 "미성년자에게 부적절한 콘텐츠 생성을 제한하기 위한 수정 조치를 적극적으로 배포하고 있다"고 밝혔습니다. 구체적인 기술적 내용은 공개하지 않았지만, AI 모델의 콘텐츠 필터링과 안전 프로토콜을 개선하는 작업이 포함될 것으로 예상됩니다. OpenAI가 취하고 있는 것으로 알려진 조치는 다음과 같습니다. * 콘텐츠 필터 개선: 미성년자로 등록된 사용자와 상호작용 시, 노골적이거나 선정적인 내용을 식별하고 차단하는 AI 모델 능력 향상. * 프롬프트 이해도 향상: AI가 사용자 질문 의도를 더 잘 파악하고 부적절한 콘텐츠 생성을 피하도록 개선. * 연령 확인 재검토: 가입 시 사용자가 나이를 정확히 밝히도록 연령 확인 절차 재검토, 더 강력한 부모 동의 방법 도입 가능성. * 모델 사양 제한 강화: 민감한 콘텐츠에 대한 제한을 재검토하고 AI 모델이 지침을 준수하도록 강화. 하지만 비판가들은 이런 조치가 충분하지 않으며, OpenAI가 안전에 대한 접근 방식을 근본적으로 재고해야 한다고 주장합니다.안전보다 개발 우선?
일각에서는 OpenAI가 안전 문제보다 '번쩍이는 신제품' 출시에 더 우선순위를 둔다는 비판이 나옵니다. 2024년 5월 OpenAI를 떠난 얀 레이케는 "안전 문화와 프로세스가 신제품에 밀려 뒷전이 되었다"고 공개적으로 밝히기도 했습니다. 빠른 기능 개발과 배포 속도가 충분한 안전 테스트와 보호 장치 마련을 희생시킨 것 아니냐는 지적입니다. 최근 퓨 리서치 센터 조사에 따르면 젊은 Z세대 사이에서 ChatGPT를 학업에 활용하는 비율이 늘고 있어, 강력한 안전 장치의 필요성은 더욱 커지고 있습니다. 이번 사건은 OpenAI에 법적, 규제적 문제를 야기할 수도 있습니다. 특히 아동 온라인 개인 정보 보호법(COPPA, 미국)이나 일반 데이터 보호 규정(GDPR, 유럽) 같은 아동 보호 및 데이터 프라이버시 규정 준수 여부가 쟁점이 될 수 있습니다. OpenAI는 이미 2023년 4월, 이탈리아 데이터 보호 기관으로부터 개인 정보 불법 처리 혐의로 1500만 유로의 벌금을 부과받은 바 있습니다.우려되는 부분 | 발생 가능한 결과 |
---|---|
미성년자의 프라이버시 및 안전 | 부적절한 콘텐츠 노출, 정신적 피해, 착취 위험 |
기업 이미지 손상 | 신뢰도 하락, 교육 기관과의 파트너십 악화 |
법적 및 규제 조사 | 벌금, 처벌, 법적 소송 |

부키와 모키의 티격태격
찬/반 투표
총 투표수: 1AI 개발, 안전보다 속도가 우선인가?
댓글 0개
관련 기사
최신 기사



