“가짜 AI에 속지 마세요” 한국이 만드는 AI 안전성분표 나온다
댓글 1
·
저장 0
·
편집: 이도윤 기자
발행: 2025.08.19 17:32

기사 3줄 요약
- 1 ETRI, AI 안전성 검사 국제 표준 개발 착수
- 2 ‘레드팀 테스트’로 AI 허점 미리 공격해 찾아내
- 3 ‘신뢰성 라벨’로 AI 성능 한눈에 확인 가능
우리가 사용하는 인공지능(AI)에도 식품처럼 ‘영양성분표’가 생긴다면 어떨까요? 앞으로는 AI를 사용하기 전, 얼마나 믿을 수 있는지 한눈에 확인하고 고를 수 있는 시대가 열릴 전망입니다.
최근 한국전자통신연구원(ETRI)에 따르면, AI 시스템의 위험을 미리 찾아내고 소비자가 신뢰 수준을 쉽게 파악할 수 있는 2가지 핵심 국제 표준 개발이 시작됐습니다. 이는 국제표준화기구(ISO/IEC)에 공식 제안되어, AI 기술의 안전과 신뢰를 위한 중요한 첫걸음으로 평가받고 있습니다.
그래서 AI 안전검사는 어떻게 하는 건데?
첫 번째 표준은 ‘AI 레드팀 테스팅’입니다. 이는 일부러 AI 시스템을 공격해 숨어있는 약점이나 위험을 미리 찾아내는 방식입니다. 화이트 해커가 시스템의 보안 취약점을 찾는 것처럼, AI에게 일부러 이상한 질문을 던져 잘못된 답변을 유도하거나 안전장치를 무력화시키는 테스트를 진행합니다. ETRI는 이 분야의 국제 표준 개발 편집자 역할을 맡았습니다. 앞으로 의료, 금융, 국방 등 다양한 분야에서 공통으로 사용할 수 있는 시험 절차와 방법을 만들게 됩니다. 이를 통해 위험한 AI가 출시되기 전에 미리 걸러낼 수 있을 것으로 기대됩니다.AI에도 영양성분표가 생긴다고?
두 번째 표준은 ‘신뢰성 사실 라벨(TFL)’입니다. 이는 마치 식품의 영양성분표처럼 AI 시스템을 얼마나 믿을 수 있는지 소비자가 쉽게 알 수 있도록 만든 표시 제도입니다. 이 라벨에는 AI의 정확도, 안전성, 공정성 같은 정보가 담길 예정입니다. 기업이 직접 정보를 제공하거나, 제3의 기관이 검증하고 인증하는 방식으로 운영될 수 있습니다. 앞으로는 AI가 얼마나 많은 탄소를 배출하는지와 같은 환경적인 요소(ESG)도 포함될 계획입니다.이게 왜 중요하고, 우리한테 뭐가 좋은데?
이러한 표준 개발은 우리나라가 AI 기술의 주도권을 잡는 데 큰 도움이 됩니다. 미국이나 유럽연합(EU) 등 주요국들도 AI 규제 정책에 레드팀 테스트와 신뢰성 라벨을 핵심 요소로 포함하고 있습니다. 우리가 국제 표준을 주도하게 되면, 국내 기업들이 세계 시장에 진출하는 데 유리한 고지를 점할 수 있습니다. 결국 이러한 노력은 ‘AI 경영시스템 표준(ISO/IEC 42001)’과도 연결됩니다. AI 제품의 신뢰도를 종합적으로 검증하는 도구로 발전시켜, 국민들이 생활 속에서 AI 기술을 더 안전하고 믿을 수 있게 사용하는 환경을 만드는 것이 최종 목표입니다.
편집: 이도윤 기자
이메일: aipick@aipick.kr

부키와 모키의 티격태격
찬/반 투표
총 투표수: 1AI 안전성분표, 실제로 효과 있을까?
있다
0%
0명이 투표했어요
없다
0%
0명이 투표했어요
관련 기사
최신 기사




와 안전성분표? ㅋㅋㅋ