ChatGPT 믿고 ‘가짜 판례’ 제출했다가… 결국 해고된 신입 변호사
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2025.06.03 04:24

기사 3줄 요약
- 1 ChatGPT가 만든 가짜 판례, 신입 법조인 법원에 제출
- 2 유타주 법원, AI 정보 오류로 로펌 제재 및 직원 해고
- 3 AI 맹신 경고, 사용자 책임과 철저한 검증 중요성 대두
믿었던 ChatGPT 때문에 한순간에 직장을 잃는 황당한 일이 미국에서 벌어졌습니다. 인공지능(AI)이 만들어낸 가짜 정보 때문에 법조계가 발칵 뒤집혔고, 결국 한 로스쿨 졸업생은 해고까지 당했습니다. 이번 사건은 AI 기술을 사용할 때 얼마나 신중해야 하는지, 그리고 그 책임은 누구에게 있는지를 다시 한번 생각하게 합니다.
그래서, 정확히 무슨 일이 있었던 거야?
사건은 미국 유타주에서 발생했습니다. 최근 로스쿨을 졸업하고 로펌에서 무면허 법률 사무원으로 일하던 한 직원이 법원에 제출할 서류를 작성하면서 ChatGPT의 도움을 받았습니다. 그런데 이 서류에는 ChatGPT가 지어낸 가짜 판례가 포함되어 있었습니다. 유타주 법원은 AI가 만든 가짜 인용이 발견된 첫 사례로 기록하며, 해당 로펌에 제재를 가했습니다. 법원은 서류에 여러 건의 잘못된 사건 인용과 함께, 어떤 법률 데이터베이스에서도 찾아볼 수 없고 오직 ChatGPT에서만 검색되는, 존재하지 않는 판례가 최소 한 건 포함되어 있다고 밝혔습니다. 판사는 변호사들이 법원 제출 서류의 정확성을 검토하고 보장해야 할 지속적인 의무가 있는데, 이를 소홀히 했다고 지적했습니다. 결국 이 일로 해당 직원은 해고되었고, 로펌은 상대방 변호사 비용과 함께 법률구조단체에 1,000달러를 기부하라는 명령을 받았습니다.AI가 거짓말도 한다고? '환각 현상'이 뭐길래?
AI가 마치 사람처럼 그럴듯한 거짓 정보를 만들어내는 것을 '환각(hallucination) 현상'이라고 부릅니다. 이번 사건에서 문제가 된 가짜 판례 "Royer v. Nelson, 2007 UT App 74, 156 P.3d 789"에 대해 ChatGPT에게 요약해 달라고 요청하자, "두 개인 간의 분쟁"이라는 식의 모호한 답변만 내놓았다고 합니다. 이는 AI가 실제 정보 없이 내용을 꾸며냈을 가능성을 시사하는 대목입니다. AI는 방대한 데이터를 학습해 답변을 생성하지만, 때로는 학습 데이터에 없거나 부정확한 정보를 바탕으로 잘못된 내용을 사실처럼 제시할 수 있습니다. 특히 법률 분야처럼 정확성이 생명인 곳에서 AI의 환각 현상은 치명적인 결과를 초래할 수 있습니다. AI가 아무리 똑똑해 보여도, 그 정보가 100% 정확하다고 맹신해서는 안 되는 이유입니다.로펌은 뭐했대? 책임은 결국 누구에게?
해당 로펌은 법원에 사과하며, 문제의 직원이 ChatGPT 사용 사실을 알리지 않았다고 밝혔습니다. 당시 로펌에는 AI 사용에 대한 명확한 정책이 없었지만, 사건 이후 새로운 AI 사용 정책을 수립했다고 합니다. 직원이 해고된 것은 이러한 AI 사용 관련 정책이 없었음에도 불구하고 이루어진 조치였습니다. 판사는 이번 사건의 변호사들이 책임을 인정하고 신속하게 문제를 해결하려 한 점을 참작했다고 언급했습니다. 하지만 AI가 만든 가짜 판례는 상대방 변호사와 법원에 불필요한 시간과 비용을 발생시키고, 의뢰인에게 최선의 변호를 제공하지 못하게 하는 등 심각한 피해를 줄 수 있다고 경고했습니다. 결국 AI를 사용하는 것은 사람이지만, 그 결과에 대한 책임도 사람에게 있다는 점을 분명히 한 것입니다.AI, 이제 무턱대고 믿으면 큰일 나겠는데?
전문가들은 법률 분야에서 AI 사용 시 환각 현상에 대해 각별히 주의해야 한다고 경고합니다. 실제로 많은 대학생들이 AI를 과도하게 신뢰하고 있다는 지적도 나옵니다. 한 대학 교수는 학생들이 ChatGPT가 제공한 정보를 진실이라고 철석같이 믿으며, 어떻게 그것이 사실인지 확인하냐는 질문 자체를 이해하지 못하는 경우도 있다고 토로했습니다. AI는 분명 편리한 도구이지만, 아직 완벽하지 않습니다. AI가 제공하는 정보는 반드시 사람이 교차 확인하고 검증하는 과정을 거쳐야 합니다. 특히 중요한 결정을 내리거나 공식적인 문서를 작성할 때는 더욱 신중한 접근이 필요합니다. 이번 사건은 AI 시대에 우리 모두가 가져야 할 비판적 사고와 정보 검증 능력의 중요성을 일깨워주고 있습니다.
편집자:
이도윤 기자
제보·문의:
aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 0ChatGPT 같은 AI 법률 업무에 사용해도 될까?
찬성
0%
0명이 투표했어요
반대
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사



