딥페이크는 예고편…핵무기 개발 막는다

2025-08-06

인공지능(AI)이 핵무기나 독가스 같은 대량살상무기 개발에 악용되지 않도록 하기 위한 정부 차원의 대응 조직이 신설됐다. AI 안전 문제가 딥페이크·가짜뉴스 같은 디지털 이용자 피해를 넘어 국가안보 위협으로 번질 수 있다는 우려에 주요국들이 관련 대응을 강화하는 추세다.

6일 정보기술(IT) 업계에 따르면 과학기술정보통신부 산하 AI안전연구소는 최근 화학·생물학·방사능·핵(CBRN) 위협 대응 연구를 전담하는 태스크포스(TF) 조직 ‘이중사용대응팀’을 구성했다. AI가 민간과 군사 목적 모두로 쓰일 수 있는 ‘이중사용 기술’로서 핵무기나 생화학무기 개발 같은 CBRN 위협에 악용될 가능성과 현재 기술의 취약점, 이를 방지할 수 있는 기술과 정책을 연구한다. AI 분야뿐 아니라 화학·생명과학·방사선 등 관련 분야 전문가들이 모였다.

AI안전연구소는 과기정통부가 지난해 11월 출범한 AI 안전 연구 전담기관이다. AI가 국가안보 문제까지 일으킬 수 있다는 우려가 나오면서 AI안전연구소도 본격적 대응에 나선 것이다. 김명주 AI안전연구소장은 “개인뿐 아니라 다른 국가들도 AI를 악용할 수 있어 국가적 대응이 필요한 상황”이라며 “미국 측과도 협력을 준비 중”이라고 말했다.

실제로 올 초 챗GPT를 활용해 자동소총 제어 장치를 개발하고 테슬라 사이버트럭 테러용 폭발물을 제조하는 등 AI를 군사적으로 활용하는 시도가 이어지고 있다. 이스라엘은 하마스와의 전쟁에서 드론을 격퇴하고 표적을 식별하는 데 AI를 도입했다. 앞서 2022년에는 미국 제약사 ‘컬래버레이션스 파마세니컬스’가 신약 개발용 AI ‘메가신’을 활용해 6시간 만에 독성 물질 4만 종을 발굴, AI의 이중사용 문제를 지적한 논문을 국제 학술지 ‘네이처 머신 인텔리전스’에 발표했다.

이에 선진국들은 최근 AI 규제 완화 기조에도 CBRN만큼은 대응 수위를 강화 중이다. 미국은 지난달 23일(현지 시간) 규제 완화를 골자로 한 ‘AI 행동계획’에 “강력한 AI 시스템은 가까운 미래에 CBRN 무기 개발과 같은 새로운 국가안보 위협을 초래할 수 있다”며 “프런티어(최고 수준) AI 시스템의 국가안보 위협을 평가한다”는 내용을 담았다.

영국은 올 초 ‘AI안전(safety)연구소’를 ‘AI보안(security)연구소’로 개편해 국가안보 대응에 집중하기 시작했다. 지난달에는 아마존웹서비스(AWS)·앤트로픽 등과 1500만 파운드(약 280억 원) 규모로 AI 안전 연구를 지원하는 ‘얼라인먼트 프로젝트’에 착수했다. 오픈AI가 CBRN 등 위험 대응을 위한 전담 조직을 만들고 앤스로픽도 관련 안전기준 ‘AI 안전 3단계’를 마련해 최신 모델 ‘클로드 오퍼스4’에 적용하는 등 민간 기업도 자구책을 마련 중이다.

이 같은 조치들은 AI 개발 경쟁 물밑에서 벌어지는 신뢰성 확보전의 일환이라는 게 업계 전언이다. 김 소장은 “소버린(자립형) AI가 경쟁력을 가지려면 안전성 우려를 없애야 하기 때문에 AI 안전 강화는 규제보다는 오히려 성장을 뒷받침하는 역할”이라고 말했다. 기술 혁신으로 주목받았지만 보안 문제로 전 세계 이용자에게 외면받는 중국 딥시크가 반면교사 사례로 언급된다. 이에 그동안 독자 노선을 걷던 중국도 지난달 26일(현지 시간) ‘세계인공지능대회(WAIC)’에서 ‘선하고 포용적인 AI 개발’ 등을 위한 글로벌 거버넌스 ‘세계AI협력기구’ 설립을 제안했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.