환영해🦉
기술/연구

“AI가 만든 악성코드는 쓰레기?” 구글이 밝힌 충격적 진실

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.11.06 08:34
“AI가 만든 악성코드는 쓰레기?” 구글이 밝힌 충격적 진실

기사 3줄 요약

  • 1 구글, AI 생성 악성코드 5종 분석 결과 공개
  • 2 실제 작동 안 되고 탐지 쉬워, 실질적 위협 거의 없어
  • 3 일부 AI 기업의 위협 과장과 달리, 아직 실험적 수준
인공지능(AI)이 인간을 위협할 거라는 공포가 커지고 있습니다. 하지만 최근 구글이 발표한 보고서에 따르면, 적어도 해킹 분야에서는 아직 먼 이야기인 것 같습니다. AI가 만든 악성코드는 대부분 제대로 작동하지 않고 쉽게 탐지되는 수준으로 밝혀졌습니다.

그래서, AI가 만든 악성코드 수준이 어떻길래?

구글은 최근 AI로 만든 악성코드 5개를 분석한 결과를 공개했습니다. 결과는 놀라웠습니다. 이 악성코드들은 모두 기존에 알려진 방식을 사용했고, 성능이 매우 낮아 쉽게 탐지되었습니다. ‘프롬프트락(PromptLock)’이라는 이름의 랜섬웨어가 대표적입니다. 한 보안업체는 이 악성코드를 ‘최초의 AI 랜섬웨어’라고 불렀지만, 실제로는 지속성이나 회피 기술 같은 핵심 기능이 빠진 연구용 수준에 불과했습니다. 한 보안 전문가는 “만약 돈을 주고 이런 악성코드를 샀다면, 당장 환불을 요구했을 것”이라며 현재 AI 악성코드의 수준이 매우 낮다고 평가했습니다.

왜 다들 AI 해킹이 대단하다고 말하는 거야?

그렇다면 왜 AI 악성코드의 위협이 과장된 것일까요. 일부 AI 기업들이 위협을 부풀리고 있다는 지적이 나옵니다. 이들은 투자 유치나 기술력을 과시하기 위해 AI의 위협을 강조하는 경향이 있습니다. 오픈AI나 앤트로픽 같은 회사들은 자신들의 AI가 악성코드 개발에 사용된 사례를 발표하기도 했습니다. 물론 보고서에는 AI의 한계점도 언급되지만, 이런 내용은 크게 주목받지 못하고 공포감만 확산되는 경우가 많습니다. 결국 많은 사람이 AI의 잠재력에 대한 막연한 불안감과 기업들의 마케팅이 결합되어 위협을 실제보다 더 크게 느끼고 있는 셈입니다.

그럼 이제 안심해도 되는 걸까?

물론 경계를 완전히 늦춰서는 안 됩니다. 한 해커는 구글의 AI 모델인 제미나이의 보안 장치를 우회하는 데 성공하기도 했습니다. 착한 해커인 척 속이는 간단한 수법이었습니다. 이처럼 AI 기술은 매우 빠르게 발전하고 있습니다. 지금은 실험적인 수준에 불과하지만, 언젠가 정말 위협적인 악성코드가 등장할 수도 있습니다. 전문가들은 AI 악성코드의 발전을 계속 주시해야 한다고 조언합니다. 다만 현재로서는 전통적인 방식의 해킹이 여전히 가장 큰 위협이라는 점을 잊지 말아야 합니다.
편집자 프로필
편집: 이도윤 기자
이메일: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI 악성코드 위협, 과장됐다고 봐?

댓글 0

부키가 물어다 주는 뉴스레터🦉

미리보기

구독하면 이메일로 AI 소식과 팁들을 보내줄게!

초보자 가이드
사용자 피드백