
김명주 ETRI AI안전연구소 소장
AI 시대 소프트웨어 테스팅의 패러다임이 변화하고 있다. 20일 코엑스에서 열린 'SOTEC 2025'에서 김명주 ETRI AI안전연구소 소장은 “AI 기술의 발전이 SW의 안전성과 신뢰성을 넘어서 윤리적 책임까지 강조하는 시대로 전환되고 있다”며 AI 시대의 소프트웨어 테스팅 전략을 발표했다.
김 소장은 “디지털 혁신의 순기능과 역기능이 공존하면서, 단순한 기술적 검증을 넘어 사회적 신뢰와 윤리적 기준을 만족해야 한다”고 강조했다. 그는 특히 AI의 발전이 가져올 사회적·윤리적 문제를 해결하기 위해 리스크 맵(Risk Map)을 통해 위험을 체계적으로 분석하고 대응해야 한다고 설명했다.
이번 발표에서는 AI의 사회적 위험이 정치, 경제, 사회, 문화 전반에 걸쳐 영향력을 미친다는 점이 강조됐다. 김 소장은 “정치적 편향성, 경제적 불평등, 개인정보 유출 및 문화적 다양성 상실 등 AI의 부작용을 해결하기 위한 대응이 시급하다”고 말했다.
이를 위해 김 소장은 AI 시스템의 안전성을 확보하기 위한 AI 안전 평가 프레임워크를 제시했다. 이 프레임워크는 AI 모델 및 데이터셋에 대한 리스크 개별 테스트, 전문가와 자동화 도구를 통한 종합 평가, AI 안전 보고서 발행, 글로벌 평가 조직과의 협력을 포함한다.
그는 한국이 아시아 태평양 지역을 대표하는 글로벌 AI 안전 거점 연구소로 자리잡아야 한다고 주장했다. 이를 실현하기 위한 핵심 기관으로 AI Sherpa Institute가 소개됐으며, 글로벌 기업들과 협력해 AI 기술의 안전성 및 윤리적 기준을 확립하는 데 앞장설 계획이다.
김 소장은 “AI 시대의 소프트웨어 테스팅은 기술적 검증을 넘어 윤리적 책임까지 포함해야 하며, 글로벌 기술 표준을 선도할 수 있는 정책적·기술적 노력이 필수적”이라고 강조했다.
김정희 기자 jhakim@etnews.com