“절대 그냥 쓰지 마세요” 학교 AI의 위험한 비밀이 밝혀졌다
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.11.06 05:43
기사 3줄 요약
- 1 에듀테크 기업, 교육용 AI 핵심 정보 비공개 논란
- 2 AI 모델, 학습 데이터 등 깜깜이...데이터 유출 위험 커져
- 3 특수교육 현장서 위험성 증폭, 교사 선택권 제한돼
최근 교육 현장에서 사용하는 인공지능(AI) 도구들이 정작 어떤 AI로 만들어졌는지, 안전성은 확인된 것인지 제대로 알려주지 않는다는 사실이 드러났습니다.
시민 권리 비영리 단체인 민주주의기술센터(CDT)는 최근 보고서를 내고 교육 기술, 즉 에듀테크 기업들의 투명성이 심각한 수준이라고 지적했습니다. 100개가 넘는 에듀테크 기업을 조사한 결과, 교육자와 학부모가 알아야 할 핵심 정보의 절반 이상을 제공하지 않고 있었습니다.
그래서 뭐가 문제인데?
에듀테크 기업들은 자신들이 판매하는 교육용 AI 제품에 어떤 종류의 AI 모델이 사용됐는지, AI를 무엇으로 학습시켰는지 등을 명확히 밝히지 않고 있습니다. 특히 해당 AI가 학교라는 특수한 환경에 맞게 조정되고 검증되었는지에 대한 정보도 깜깜이입니다. 이는 교사들이 AI 도구의 기능이나 한계, 그리고 잠재적 위험성을 제대로 파악하기 어렵게 만듭니다. 마치 요리사에게 어떤 재료인지, 알레르기 유발 물질은 없는지도 알려주지 않은 채 새로운 식재료를 사용하라고 하는 것과 같습니다.구체적으로 어떤 위험이 있다는 거야?
투명성 부족은 심각한 문제로 이어질 수 있습니다. CDT가 지난 10월 발표한 설문조사에 따르면, 학교에서 AI 사용이 늘면서 학생들의 데이터 유출이나 사이버 불링과 같은 문제가 발생할 가능성도 함께 커지고 있습니다. 특히 이런 위험은 특수교육 현장에서 더욱 증폭됩니다. 2024-25학년도 동안 특수교육 교사의 약 60%가 학생 개인별 맞춤 교육 계획(IEP)을 짜는 데 AI를 사용한 것으로 나타났습니다. AI의 편향성이나 한계가 공개되지 않은 상황에서, 가장 세심한 배려가 필요한 학생들의 미래에 AI가 중요한 결정을 내리게 두는 것은 매우 위험한 일입니다.그럼 학교는 어떻게 해야 해?
이처럼 정보가 부족한 상황에서는 교육자들이 AI 도구를 제대로 평가하고 선택하는 것 자체가 불가능합니다. AI의 학습 데이터나 테스트 과정, 성능 평가 기준, 데이터 관리 방식 등을 모른다면 교육적 효과나 공정성을 판단할 수 없기 때문입니다. 최근 일부 교사들 사이에서 AI의 투명성을 요구하는 움직임이 나타나는 것도 이러한 불신 때문입니다. 이는 단순히 기술을 거부하는 것이 아니라, 미지의 기술에 대한 합리적인 의심에서 비롯된 것입니다.앞으로는 바뀔 수 있을까?
다행히 변화의 바람이 불고 있습니다. 최근 데이터 관리와 알고리즘 투명성에 대한 규제가 전 세계적으로 강화되는 추세입니다. 전문가들은 에듀테크 기업들이 처음부터 개인정보 보호를 고려해 제품을 설계하고, 모든 정보를 명확하게 공개해야만 신뢰를 얻을 수 있다고 강조합니다. AI 기술을 교육에 도입하는 것은 거스를 수 없는 흐름이 되었습니다. 하지만 이 기술이 우리 아이들에게 도움이 되려면, 무엇보다 투명성과 책임감이 밑바탕에 깔려 있어야 합니다. 기업들이 스스로 장막을 걷고 모든 정보를 투명하게 공개해야 할 때입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0학교 AI 정보 비공개, 용인해야 할까?
안된다
0%
0명이 투표했어요
괜찮다
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사