환영해🦉
기술/연구

"1센트 차이로 케이크 포기?" AI, MIT가 찾은 '인간적 판단' 훈련법 대공개

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.06.22 09:22
"1센트 차이로 케이크 포기?" AI, MIT가 찾은 '인간적 판단' 훈련법 대공개

기사 3줄 요약

  • 1 AI 융통성 부족 문제, MIT 연구팀 해결책 제시
  • 2 인간의 예외적 판단 이유 학습(SFT)이 핵심 효과
  • 3 향후 AI, 인간처럼 유연한 의사결정 기대 고조
인공지능(AI)은 똑똑하지만 때로 고지식합니다. 규칙만 따르는 로봇 같을 때가 많습니다. 미국 MIT 연구팀이 이 문제를 풀기 위해 나섰습니다. AI가 예외 상황에 대처 못하면 문제입니다. 예를 들어 케이크용 밀가루를 사야 합니다. 예산은 10달러인데, 밀가루가 10달러 1센트면 AI는 안 삽니다. 결국 케이크를 못 만듭니다. 이런 융통성 없는 AI는 실생활 사용이 어렵습니다. 고객 서비스나 의료 분야에서 특히 그렇습니다.

그래서 MIT는 뭘 했는데?

연구팀은 AI에게 인간 같은 융통성을 가르치려 했습니다. 인간은 상황과 맥락을 보고 판단합니다. 그래서 '예외적 사고'에 집중했습니다. 세 가지 방법을 시험했습니다. 윤리적 지침 프롬프팅, 생각 과정 CoT 추론, 지도 미세조정(SFT)입니다. GPT-4o 같은 최신 AI 모델들이 쓰였습니다. 결과는 어땠을까요. 윤리적 지침은 효과가 거의 없었습니다. CoT 추론은 조금 나았지만, 근본 해결책은 아니었습니다. 가장 효과적인 방법은 SFT였습니다. 인간이 왜 그런 판단을 했는지, 그 이유를 학습시키는 것이 핵심이었습니다.

인간처럼 판단하게 하는 비법이 SFT라고?

SFT는 AI에게 인간의 판단 사례를 가르치는 것입니다. 단순 정답만 알려주지 않습니다. 왜 그런 결정을 했는지 설명까지 학습해야 합니다. 연구팀은 약 50개 설명 포함 사례를 학습시켰습니다. 그러자 AI 판단력이 크게 좋아졌습니다. 새 상황에서도 인간과 비슷한 결정을 내릴 확률이 높아졌습니다. 예를 들어 앞서 말한 밀가루 상황입니다. SFT 학습 후 AI는 70% 이상 밀가루를 샀습니다. 친구 생일 케이크가 더 중요하다고 판단한 것입니다. AI도 맥락을 이해하고 유연하게 판단할 수 있음을 보여줬습니다.

그럼 이제 AI가 진짜 사람처럼 되는 거야?

이번 연구는 AI가 새 상황에 적응하는 첫걸음입니다. 무엇을 결정하는지만큼 어떻게 결정하는지도 중요합니다. 이 점을 분명히 보여줬습니다. AI 에이전트가 유용하고 신뢰받으려면 이 단점을 넘어야 합니다. 특히 중요한 분야에서는 더욱 그렇습니다. AI가 규칙 실행기를 넘어, 도움 되는 파트너가 돼야 합니다. 아직 갈 길은 멉니다. 하지만 MIT 연구는 AI가 더 똑똑하고 유연해질 길을 제시했습니다. 앞으로 더 믿음직하고 세심한 AI 조수를 만날 수 있을 겁니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI가 인간처럼 판단하는 것이 바람직한가?

댓글 0

관련 기사