1. AI의 대부, 드디어 경고하다
AI 신경망과 딥러닝의 창시자로 ‘AI의 대부(Godfather of AI)’로 불리는 제프리 힌턴이 드디어 입을 열었어. 그는 2023, 10 넘게 몸담았던 구글을 떠났고, 그 이유는 단 하나.
"AI는 지금 매우 위험하다. 말하지 않으면 안 됐다."
2. 왜 위험한가? 인간 멸종 가능성까지 언급됨
힌턴은 AI가 발전을 멈추지 않을 것이며, 그중 일부는 인류를 위협할 정도로 강력한 수준이 될 거라고 말했어. 특히 "AI가 인간을 필요로 하지 않게 되는 순간이 온다"고 경고했지.
그는 인간 멸종 확률을 10~20% 정도로 보고 있고, 이건 단순한 영화 속 얘기가 아니라는 점을 강조했어.
3. AI가 야기할 6가지 치명적 위협
힌턴은 아래 6가지를 AI로 인한 실질적 위험으로 지목했어:
-
사이버 공격: 해킹 능력이 인간을 능가하고 있음. 보안 시스템이 무력화될 수 있음
-
AI로 만든 바이러스: 생물무기 수준의 바이러스도 AI의 도움으로 소규모 집단이 만들 수 있게 됨
-
선거 조작: AI가 타겟 맞춤형 정치 메시지를 보내 선거를 교란할 수 있음
-
에코 챔버 문제: 유튜브, 페북 같은 알고리즘이 사람들을 분열시키고 사회적 갈등을 키움
-
치명적 자율 무기: 사람 없이도 누구를 죽일지 판단하는 무기 시스템이 개발 중
-
결합된 복합 위협: 위의 모든 위험 요소들이 결합될 경우, 통제 불가능한 결과 초래
4. 규제는 가능할까? 정치보다 기술이 빠르다
유럽은 AI 규제를 시도하고 있지만, 군사용 AI엔 적용되지 않는다는 예외조항이 있다는 사실도 밝혀졌어. 힌턴은 "지금 필요한 건 지능 있고 책임감 있는 세계 정부지만, 현실은 자본주의와 경쟁 시스템이 너무 앞서 있다"고 했어.
5. 직업의 미래는? “배관공이 되라”
힌턴은 농담 반 진담 반으로 "AI가 인간의 지적 노동을 거의 다 대체할 것"이라고 말했어.
“정말 안전한 직업은 손을 써야 하는 일. 예를 들면 배관공.”
일례로 힌턴의 조카는 예전엔 고객 민원 답변에 25분이 걸렸는데, 이젠 AI 도움으로 5분 만에 처리한대. 회사 입장에선 인력 1명이 5명의 일을 하니 당연히 사람 수를 줄이겠지.
6. 그럼에도 희망은 있나?
힌턴은 "완전히 포기할 이유는 없다"고 말해.
“우리가 AI가 우리를 해치고 싶어 하지 않도록 만드는 방법을 찾을 수 있다면 희망이 있다.”
그는 자신이 만든 기술이 인류에 큰 도움이 되기를 바랐지만, 이제는 그 위험성에 대해 경고할 책임이 있다고 느껴.
7. 정리하며: 지금 우리가 해야 할 일
-
AI의 위험에 대해 무지하지 말자
-
단순히 기술이 좋다는 이유로 무비판적으로 받아들이지 말자
-
개인은 직접 행동하긴 어렵지만, 정부와 기업에 ‘AI 안전연구’ 투자를 강력히 요구하자
힌턴은 말했어.
“우리가 지금 아무것도 하지 않는다면, 인간은 AI의 ‘아기 호랑이’ 시절을 키워준 존재로만 남게 될지도 모른다.”
“그 아기 호랑이가 어느 순간 우릴 해치려 들 수도 있다.”
궁금한 점 있으면 댓글 달아줘.
이거 인터뷰 풀영상 진짜 긴데, 핵심만 뽑아봤어!
“AI는 정말로 지금 가장 무서운 발명일지도 몰라.”