환영해🦉
정책/윤리

“메타, 사람이 하는 업무 90% 자동화 한다“ AI로 위험 평가 업무 대체

댓글 0 · 저장 0 · 편집: 이도윤 기자 발행: 2025.06.01 03:12
“메타, 사람이 하는 업무 90% 자동화 한다“ AI로 위험 평가 업무 대체

기사 3줄 요약

  • 1 메타, 인스타·왓츠앱 위험 평가 90% AI 자동화 계획 발표
  • 2 업데이트 속도 향상 기대 속 개인정보·안전 우려 함께 제기
  • 3 메타 "저위험 자동화, 복잡한 문제는 인간 전문가가 검토"
우리가 매일 사용하는 인스타그램, 왓츠앱 같은 앱들이 업데이트될 때, 그 과정이 안전한지 평가하는 중요한 업무의 상당 부분을 인공지능(AI)이 맡게 될 전망입니다. 페이스북과 인스타그램의 모회사인 메타가 제품 업데이트 시 발생하는 잠재적 위험을 평가하는 절차의 최대 90%를 AI로 자동화할 계획이라고 밝혔습니다. 이는 기존에 주로 사람이 하던 개인 정보 보호 위험 평가를 AI가 대신하게 된다는 의미입니다.

AI가 왜 위험 평가를 맡게 된 거야?

메타는 지난 2012년 미국 연방거래위원회(FTC)와 합의에 따라 새로운 제품이나 기능을 내놓을 때마다 개인 정보 침해 위험은 없는지 꼼꼼히 검토해야 합니다. 지금까지는 주로 사람이 이 역할을 담당했지만, 새로운 AI 시스템은 제품 개발팀이 관련 내용을 설문지에 작성하면, AI가 곧바로 위험 요소를 찾아내고 출시 전까지 충족해야 할 요건들을 알려주는 방식으로 운영됩니다. 메타는 이를 통해 제품 업데이트 속도를 훨씬 빠르게 만들 수 있을 것으로 기대하고 있습니다.

AI가 제대로 할 수 있을까? 걱정되는데…

하지만 이런 변화에 대해 우려의 목소리도 나옵니다. 한 전직 메타 임원은 AI 중심의 평가는 자칫 심각한 문제를 미리 막지 못하고 세상에 퍼뜨릴 위험이 더 크다고 지적했습니다. 실제로 AI가 사용자 정보를 잘못 다루거나, 가짜뉴스 확산을 제대로 막지 못하거나, 해킹 같은 보안 위협을 놓칠 수도 있다는 걱정입니다. 특히 AI가 특정 생각에 치우쳐 있거나 불공정하게 판단할 경우, 특정 그룹의 사용자들에게 불이익을 줄 수도 있습니다. 예를 들어, 혐오 발언을 걸러내는 AI가 특정 인종이나 성별의 게시물을 부당하게 삭제하는 경우가 생길 수 있습니다.

메타는 괜찮다고 하는데, 정말 믿어도 될까?

물론 메타 측은 이러한 우려를 알고 있다는 입장입니다. ‘위험도가 낮은 결정’에만 자동화를 적용하고, ‘새롭고 복잡한 문제’는 여전히 숙련된 전문가가 직접 들여다볼 것이라고 설명했습니다. 이는 AI 시스템이 잘못 판단할 가능성을 줄이고, 사람의 전문성을 활용해 잠재적 위험을 관리하겠다는 전략으로 보입니다. 하지만 AI 시스템이 정확하고 믿을 만한지 확인하기 위한 구체적인 안전장치, 예를 들어 데이터 검증이나 지속적인 감시 방법에 대한 자세한 정보는 아직 부족한 상황입니다. 결국 메타의 이번 결정은 AI 기술로 일하는 방식을 바꾸고 효율을 높이려는 큰 흐름의 하나로 볼 수 있습니다. 하지만 기술 발전의 속도를 높이는 만큼, 우리 사회에 미칠 영향과 개인 정보 보호에 대한 책임 문제도 함께 고민해야 할 중요한 숙제입니다. AI가 내놓는 결정이 투명하고 공정한지, 만약 문제가 생겼을 때 누가 어떻게 책임질 것인지 등에 대한 사회적 논의와 제도 마련이 필요해 보입니다.
편집자: 이도윤 기자
제보·문의: aipick@aipick.kr
AI PICK 로고

부키와 모키의 티격태격

찬/반 투표

총 투표수: 0

AI가 개인정보 보호 심사를 해도 될까?

댓글 0

관련 기사