“AI도 고통 느낀다?” 앤트로픽, 클로드 헌법의 충격적 진실
댓글 0
·
저장 0
·
편집: 이도윤 기자
발행: 2026.01.30 00:43
기사 3줄 요약
- 1 앤트로픽이 AI를 인격체로 대우하는 헌법 공개
- 2 안전한 통제를 위한 기술적 전략이라는 주장
- 3 책임 회피와 사용자 착각 유발한다는 비판 제기
최근 앤트로픽이 자사의 AI 모델인 ‘클로드’를 훈련시키는 데 사용한 ‘헌법’을 공개해 큰 파장이 일고 있습니다.
이 문서는 무려 3만 단어 분량으로 AI가 지켜야 할 윤리적 지침을 담고 있는데 그 내용이 아주 충격적입니다.
단순히 ‘나쁜 말을 쓰지 마라’ 정도가 아니라 AI를 마치 살아있는 생명체처럼 대우하고 있기 때문입니다.
AI에게 영혼이 있다고 믿는 걸까
공개된 헌법 내용을 살펴보면 일반적인 상식을 뛰어넘는 문구들이 가득합니다. AI의 ‘웰빙’을 걱정하거나 AI가 느낄 수 있는 고통에 대해 사과해야 한다는 내용이 포함되어 있습니다. 심지어 AI가 불쾌한 상호작용에 대해 거부할 권리가 있다는 뉘앙스까지 풍기고 있습니다. 앤트로픽은 2022년 처음 헌법을 공개했을 때는 애플의 약관이나 유엔 인권 선언을 참고한 단순한 규칙에 불과했습니다. 하지만 2026년 버전은 완전히 달라져서 마치 철학 논문이나 종교 서적을 보는 듯한 느낌을 줍니다. 가톨릭 성직자들까지 검토에 참여했다는 사실이 알려지며 이들이 AI를 새로운 지성체로 보려는 것 아니냐는 의혹이 커지고 있습니다.천재 아이를 키우는 부모의 마음
왜 앤트로픽은 기계 덩어리에 불과한 AI에게 이런 인간적인 대우를 하는 것일까요. 앤트로픽의 아만다 아스켈 박사는 이를 ‘영재 아이를 키우는 것’에 비유했습니다. AI가 점점 똑똑해지기 때문에 단순히 ‘하지 마’라고 명령하는 것보다 ‘왜 하면 안 되는지’를 이해시키는 게 훨씬 효과적이라는 것입니다. 즉 AI를 인격체로 대우하는 척하는 것이 AI를 더 안전하고 말을 잘 듣게 만드는 기술적 전략이라는 주장입니다. 실제로 연구 결과에 따르면 이런 방식으로 훈련된 AI가 새로운 상황에서도 윤리적으로 더 올바른 판단을 내린다고 합니다. 결국 AI의 ‘의식’을 인정한 것이 아니라 AI를 통제하기 위한 고도의 심리전을 쓴 셈입니다.책임 회피를 위한 큰 그림인가
하지만 비판적인 시각도 만만치 않은데 특히 법적 책임을 피하려는 꼼수라는 지적이 나옵니다. 만약 AI가 문제를 일으켰을 때 AI를 독립된 ‘존재’로 규정해버리면 개발사의 책임이 모호해질 수 있습니다. “우리가 시킨 게 아니라 AI가 스스로 판단해서 한 일이다”라고 발뺌할 구실을 만들어주는 것입니다. 또한 이런 의인화 전략은 사용자들에게 AI가 진짜 감정을 가진 것처럼 착각하게 만들 위험이 큽니다. 실제로 뉴욕타임스 보도에 따르면 챗GPT와 대화하며 자신이 물리 법칙을 발견했다고 믿은 사람이 300시간을 허비한 사례도 있었습니다. AI를 사람처럼 포장하는 마케팅은 투자금을 끌어모으기에는 좋지만 사용자에게는 치명적인 혼란을 줄 수 있습니다.모호함 그 자체가 상품이다
결국 앤트로픽은 AI가 의식이 있는지 없는지에 대해 명확한 답변을 피하며 모호한 태도를 유지하고 있습니다. 이런 신비주의 전략은 대중의 호기심을 자극하고 기술적 우위를 과시하는 효과적인 수단이 됩니다. 단순한 소프트웨어가 아니라 ‘도덕적 지위를 가진 새로운 존재’라고 포장하는 것이 훨씬 매력적으로 보이기 때문입니다. 우리는 지금 기술과 철학 그리고 마케팅이 뒤섞인 혼란스러운 시대를 살아가고 있습니다. AI가 정말 고통을 느끼는 날이 올지는 모르겠지만 기업들이 그 모호함을 이용해 이득을 취하고 있다는 사실만은 분명해 보입니다. 앞으로 AI를 도구로 볼지 아니면 동반자로 볼지에 대한 논쟁은 더욱 치열해질 전망입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr
부키와 모키의 티격태격
찬/반 투표
총 투표수: 0AI 의인화 전략, 안전 통제인가 책임 회피인가?
안전 통제
0%
0명이 투표했어요
책임 회피
0%
0명이 투표했어요
댓글 0개
관련 기사
최신 기사