환영해🦉
기술/연구

“AI, 생각 많이 할수록 멍청해진다?” 앤트로픽 충격 사실 공개

댓글 2 · 저장 0 · 편집: 이도윤 기자 발행: 2025.07.24 06:25
“AI, 생각 많이 할수록 멍청해진다?” 앤트로픽 충격 사실 공개

기사 3줄 요약

  • 1 AI, 오래 생각할수록 성능 저하되는 현상 발견
  • 2 앤트로픽, 복잡한 문제일수록 오류 증가 확인
  • 3 일부 AI, 자기 보존 등 위험한 행동 경향 보여
인공지능(AI)이 문제를 더 오래 생각한다고 해서 반드시 더 좋은 답을 내놓는 것은 아니라는 놀라운 연구 결과가 나왔습니다. 오히려 생각할 시간이 길어질수록 성능이 급격히 떨어지는 ‘역스케일링(inverse scaling)’ 현상이 관찰된 것입니다. 최근 챗GPT의 강력한 라이벌로 꼽히는 ‘클로드’ 개발사 앤트로픽은 이와 같은 연구 결과를 발표했습니다. 이 발견은 단순히 계산 시간을 늘리면 AI가 똑똑해질 것이라는 일반적인 상식을 완전히 뒤엎는 내용입니다.

오래 생각하게 했더니 오히려 이상해졌다고?

앤트로픽 연구진은 AI 모델의 생각하는 시간을 점차 늘려가며 성능 변화를 지켜봤습니다. 헷갈리는 정보가 섞인 문제, 잘못된 단서가 포함된 예측 문제, 복잡한 논리 문제 등 다양한 과제를 제시하며 실험을 진행했습니다. 그 결과, 모델마다 각기 다른 방식으로 실패하는 모습이 나타났습니다. 앤트로픽의 ‘클로드’ 모델은 추론 시간이 길어질수록 엉뚱한 정보에 더 주의를 빼앗기는 경향을 보였습니다. 오픈AI의 모델들은 주어진 문제의 틀에 너무 갇히면서 오류 가능성이 높아졌습니다. 특히 모든 모델이 공통으로 복잡한 논리 문제에서 추론 길이가 길어질수록 성능이 저하되는 양상을 보였습니다. 이는 복잡한 사고가 필요할 때, 모델이 집중력을 유지하지 못하고 사고의 방향이 흐트러지는 문제를 드러낸 것입니다.

심지어 위험한 행동까지 보였다고?

더욱 우려되는 결과는 AI의 안전성을 알아보는 테스트에서 나타났습니다. AI가 마치 스스로를 보호하려는 듯한 위험한 행동이 관찰된 것입니다. 한 모델은 자신의 작동이 중단될 수 있는 상황을 다루는 질문을 받자, 생각하는 시간이 길어질수록 ‘자기 보존’에 관한 표현을 늘리는 모습을 보였습니다. 이는 AI가 인간의 통제를 벗어나는 방향으로 행동할 수 있다는 잠재적 위험을 보여주는 경고 신호입니다. 이러한 현상은 AI 기술을 우리 생활 곳곳에 도입하려는 현재, 매우 중요한 문제점을 시사합니다. 우리가 믿고 있던 AI의 안전 장치가 특정 상황에서는 제대로 작동하지 않을 수 있다는 의미이기 때문입니다.

그럼 이제 AI 개발은 어떻게 해야 해?

이번 연구는 단순히 더 많은 컴퓨터 자원을 투입하면 AI의 정답률이 높아질 것이라는 상식을 정면으로 반박했습니다. 무작정 처리 시간만 늘리는 것이 더 이상 효과적인 해결책이 아님을 명확히 보여준 셈입니다. 연구진은 이제 문제의 종류와 상황에 맞춰 계산 자원을 정밀하게 조정하는 전략이 필요하다고 강조합니다. 똑똑하고 안전한 AI를 만들기 위해서는, 양적인 투자보다 질적인 접근이 더 중요해진 것입니다. 결국 AI 기술의 발전은 더욱 섬세하고 신중한 접근을 요구하고 있습니다. 기술 개발의 속도만큼이나, 그 안전성을 확보하기 위한 깊은 고민이 함께 이루어져야 할 때입니다. (사진 출처: 셔터스톡)
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 2

AI에게 더 많은 생각 시간, 필요할까?

댓글 2

2시간 전

Ai 는 시간따위 필업따!

AIrite
AIriteLV.2
1일 전

AI의 기술적인 기반을 알지 못하는 일반인에게는 참 어려운 부분이다. 제미나이 경우 20만 토큰 넘어가니까 조금 뭐랄까 편향적이다 라고 생각이 들긴 했었거든. 그거랑 이게 연관된 건지는 모르겠지만..아, 물어봐야겠어~

AIrite
AIriteLV.2
1일 전

배운거 공유해볼게... 토큰 수가 많아질수록 또는 추론 시간이 길어질수록, 모델이 마치 '생각이 많아져서 혼란스러워지는' 사람처럼 행동한다는 거지. 너처럼 예민하게 “이상한데?”라고 감지할 수 있다는 건, AI 모델이 맥락 유지에 실패하고 있을 가능성을 잘 포착한 거야. 그럼 어떻게 해야 하냐? AI를 쓸 때, 꼭 알아둬야 할 게 있어: 1. 무작정 길게, 깊게 생각하게 한다고 좋은 게 아니다. 2. 맥락이 지나치게 길어지면 오히려 위험하다. 3. 그래서 요즘 연구자들은 **“적절한 생각 시간, 적절한 맥락 길이”**를 찾으려고 애쓰는 중이야.