
금융권 인공지능(AI) 활용이 확산하는 가운데 글로벌 표준 규제 부재로 인한 규제 공백 리스크가 심화하고 있다는 분석이 나왔다. 특히 AI '설명가능성' 부족 현상에 대한 해결책으로, AI 모델의 현실적 규제 정립이 필요하다는 지적이다.
국제금융센터는 최근 발간한 '금융권 AI의 설명가능성 규제 한계와 개선방안' 보고서에서 “AI 설명가능성 관련 현실적 접근 방안을 고려해야 한다”고 밝혔다.
금융권 AI 활용은 초기 머신러닝 기반 리스크 관리에서 생성형AI를 통한 역량 강화로 전환되며 활성화되는 상황이다. 하지만 이와 관련한 글로벌 표준 규제 체계가 부재하고, 국가별 AI 안정성과 윤리 원칙, 혁신 추구 등 기준과 정도가 달라 공통 거버넌스 정립 필요성이 지속 제기되고 있다.
특히 AI '설명가능성'이 금융 규제 핵심 과제로 대두됐다. 설명가능성은 AI가 알고리즘 의사결정 과정과 이유를 설명하는 프로세스다. 알고리즘에 들어간 데이터셋을 비롯해 사용 빈도 비율, AI 모델 등을 수치화해 제공하며 이를 통해 결과물에 대한 신뢰를 부여한다. 현재 AI 설명 가능성 관련 규제는 기초 원칙적 가이드라인에 머물거나 명시적인 독립 규제가 부재한 상황이다.
보고서는 금융환경에서 설명가능성 부족이 금융기관 모델 리스크관리 역량을 약화키는 '건전성 감독 저해 문제'와 규제자본 산출 과정 등을 명확히 설명할 수 없는 신뢰도 약화 문제를 야기한다고 지적했다.
또 금융기관이 AI 모델 작동 원리를 명확히 이해하고 설명할 수 없다면, AI 기술 도입을 꺼리게 되어 결국 금융혁신을 가로막는 장애물로 작용할 수 있다는 의견도 제시했다.
챗GPT 등 대규모 언어모델 시대에 설명가능성 확보는 난제로 꼽힌다. 거대언어모델이 발전하며 내부 작동 원리와 판단 근거를 쉽게 이해할 수 없도록 설계된 '블랙박스 특성'이 심화됐기 때문이다.
보고서는 이런 문제를 해결하기 위해 AI 설명가능성 관련 '현실적 접근 방안'을 고려할 필요가 있다고 제언했다. 대규모 언어모델 시대에 온전한 금융 AI 설명가능성 확보가 기술적으로 불가능하다는 점을 전제하고, 이에 맞춘 새로운 규제를 마련해야 한다는 것이다.
보고서는 이에 대한 방안으로 △기존 정적모델이 아닌 동적AI 모델에 부합하는 '규제 프레임워크 재설계' △AI 설명 대상을 명확히 구분하는 등 '차별화된 설명 기준 마련' △챗GPT 등 제3자 거대언어모델에 대한 최소 투명성 확보 △생성형 AI 결과물 품질 평가 방법론이 미성숙함을 고려한 '생성형 AI 단계적 도입 전략' △과도한 설명가능성 요구와 설명 불가능한 AI 무제한 허용 사이 균형을 맞추는 '혁신과 규제의 균형 추구' 등을 제시했다.
보고서는 “대규모 언어모델 시대에 금융AI 설명가능성 확보는 기술적으로 불가능함에도 불구, 현재는 규제상 필수적으로 요구되는 역설적 상황에 직면했다”며 “완벽한 설명가능성을 요구하기보다 설명 불가능성을 AI의 본질적 리스크로 인정하고 현실적 접근 방안을 고려할 필요가 있다”고 설명했다.
정다은 기자 dandan@etnews.com
![[헬로즈업] ‘K-로봇’ 근본적 과제 해법…“플랫폼 격차 해소와 글로벌 경쟁력 확보”](https://www.hellot.net/data/photos/20251145/art_17626469767046_10825e.jpg?iqs=0.6272333994037218)
![[ET시선] 생산적금융 시대, 은행의 미래는 디지털에 달렸다](https://img.etnews.com/news/article/2023/12/13/news-p.v1.20231213.3dd37b71e82a4e8f90ecfc5a338e8812_P3.jpg)



![[헬로즈업] ‘인간화’ 선언한 로봇, 목표는 인류와 ‘공생’하는 AI 휴머노이드](https://www.hellot.net/data/photos/20251145/art_17626476903911_20235d.jpg?iqs=0.1397499834350967)

