“학교선 징계, 실리콘밸리선 200억 투자!” AI 부정행위 논란의 주인공
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.06.21 06:25

기사 3줄 요약
- 1 AI 부정행위 조장 스타트업 클루리, 200억 투자 유치
- 2 면접, 시험 등 AI로 속여, 윤리적 논란 뜨거워
- 3 A16Z 등 투자, 기업가치 1500억 원 평가받아
최근 한 AI 스타트업이 세간의 주목을 한 몸에 받고 있습니다. 바로 ‘모든 것을 속이는 데 도움을 준다’고 공언한 클루리(Cluely)입니다.
이들은 세계적인 투자사 안드레센 호로위츠(a16z)로부터 무려 1500만 달러, 우리 돈으로 약 200억 원에 달하는 시리즈 A 투자를 유치했습니다.
클루리는 올해 초, 21살의 로이 리와 닐 샨무감이라는 두 젊은이가 공동 창업한 회사입니다. 흥미로운 점은 이들이 컬럼비아 대학교 재학 시절, 기술 면접에서 부정행위를 돕는 AI 도구 ‘인터뷰 코더’를 개발했다가 학교로부터 징계를 받은 전력이 있다는 사실입니다.
아이러니하게도 과거의 논란이 현재 사업의 밑거름이 된 셈입니다.
클루리가 대체 뭐길래?
클루리는 AI를 기반으로 작동하는 실시간 지원 도구입니다. 사용자가 면접이나 시험, 심지어 영업 전화 통화 중에도 이 도구의 ‘도움’을 받을 수 있도록 설계되었습니다. 표면적으로는 AI 코칭 도구처럼 보일 수 있습니다. 하지만 실제로는 사용자의 화면을 몰래 보거나 오디오를 듣고 실시간으로 적절한 답변을 제공하는 방식으로, 사실상 부정행위를 조장한다는 비판을 받고 있습니다. 클루리 측은 이 기능이 면접관이나 시험 감독관에게 발각되지 않도록 은밀하게 작동한다고 주장합니다. 로이 리 대표는 자극적인 소셜 미디어 활동과 논란을 일으키는 영상으로 클루리의 인지도를 높이는 데 크게 기여하고 있습니다.논란의 중심, 괜찮을까?
전문가들은 클루리의 성공적인 투자 유치가 AI 기술의 윤리적 사용에 대한 근본적인 질문을 던진다고 지적합니다. AI가 인간의 능력을 보조하는 도구인지, 아니면 정직한 노력을 무력화하는 수단인지에 대한 사회적 논의가 필요하다는 목소리가 높습니다. 클루리의 사업 모델이 장기적으로 지속 가능할지에 대한 의문도 끊이지 않습니다. AI 사용을 감지하는 기술 역시 빠르게 발전하고 있기 때문입니다. 실제로 발리디아(Validia), 프록타루(Proctaroo)와 같은 스타트업들은 이미 클루리 같은 도구 사용자를 탐지하는 솔루션을 개발해 시장에 선보이고 있습니다. 더욱 심각한 문제는 클루리가 사용자 활동, 예를 들어 오디오나 화면 내용을 명시적인 동의 없이 수집하고 분석할 수 있다는 점입니다. 이는 유럽 일반 개인정보보호법(GDPR)과 같은 데이터 보호 규정을 심각하게 위반할 소지가 있어 법적인 문제로 비화될 가능성도 배제할 수 없습니다.앞으로는 어떻게 될까?
이러한 여러 비판에도 불구하고 클루리 측은 당당한 입장입니다. 그들은 AI 기술을 활용해 기존의 불합리한 시스템에 도전하고 새로운 가치를 만들겠다는 포부를 밝히고 있습니다. 면접이나 시험에서의 부정행위 조장이라는 비판에 대해서는 사업 모델을 영업 전화나 회의 지원 등으로 재정의하고 있다고 해명했습니다. 이는 부정행위 논란을 피하려는 의도로 풀이됩니다. 클루리의 사례는 AI 기술 발전과 함께 윤리적 고민이 얼마나 중요한지를 명확히 보여줍니다. 기술 혁신이 항상 긍정적인 결과만을 가져오는 것은 아니며, 사회적 합의와 윤리적 기준 없이는 오히려 해악을 끼칠 수 있다는 경고이기도 합니다. 클루리의 미래는 AI 기술의 윤리적 사용에 대한 사회적 논의와 규제 방향에 따라 크게 달라질 전망입니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI로 면접·시험 부정행위, 허용해야 할까?
허용
0%
0명이 투표했어요
금지
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



