[MPIS 2025] 국립암센터 이재동 책임, 초거대 AI가 바꾸는 의료보안 지형…“정보보안 담당자의 새로운 과제”(영상)

2025-05-25

데일리시큐는 지난 5월 13일 화요일 한국과학기술회관 국제회의실에서 전국 국공립 의료기관 및 대학·민간 병원 개인정보보호 및 정보보안 책임자, 실무자 250여 명이 참석한 가운데 ‘2025 의료·헬스케어 정보보호 페어’(MPIS 2025)를 개최했다. 이번 MPIS 2025는 보건복지부, 대한병원정보보안협회, 디지털헬스보안협회 후원으로 개최됐다.

이날 행사에서 국립암센터 인공지능사업팀 이재동 책임은 ‘정보보안 담당자가 반드시 알아야 할 의료 초거대 AI의 현재와 미래’를 주제로 강연을 진행했다. 이재동 책임은 강연을 통해 초거대 AI의 개념과 기술 진화, 의료 현장에서의 활용 사례, 보안 및 윤리적 문제, 그리고 이를 해결하기 위한 전략과 규제 대응 방향에 대해 깊이 있는 인사이트를 공유했다.

이재동 책임은 초거대 AI를 “대규모 연산 자원과 데이터셋을 기반으로 구축된 범용 인공지능 모델”이라 정의하며, 일반 AI와 달리 다양한 태스크에 적응할 수 있는 전이학습 능력을 갖춘 것이 특징이라고 설명했다. 특히 GPT 계열의 거대 언어모델(LLM), 멀티모달 AI, 생성형 AI(GenAI) 등 최근의 기술 트렌드가 결합되며 의료 영역에 깊숙이 들어오고 있음을 강조했다.

초거대 AI는 전통적인 태스크 기반 AI와 달리, 대규모 비지도 학습을 통해 정답이 없는 데이터를 기반으로도 패턴을 학습하고 다양한 의료 업무에 적용될 수 있는 범용성을 가진다. 이재동 책임은 “기존 AI는 특정 태스크에 한정됐지만, 초거대 AI는 의료현장의 다양한 업무를 하나의 모델로 해결할 수 있는 전환점을 제공한다”고 말했다.

강연에서는 세계 각국의 AI 투자와 경쟁 현황도 상세히 소개됐다. 일론 머스크의 xAI는 10만 개 GPU를 활용한 ‘콜로서스’ AI 슈퍼컴퓨터를 가동했고, 미국과 유럽, 중국은 각각 수백 조 원대의 AI 인프라 투자를 진행 중이다. 한국도 2026년 상반기까지 고성능 GPU 1.8만 장을 확보할 계획이다.

이러한 글로벌 흐름 속에서 초거대 AI는 실제 의료 현장에도 빠르게 적용되고 있다. 대표적인 사례로는 암 환자 데이터를 기반으로 치료 반응 패턴을 분석해 유사 환자군을 식별하고 최적의 치료법을 제안하는 시스템이 소개됐다. 또한, 의료영상 분석에서는 GPT-4V 등 멀티모달 모델이 X-ray, CT 영상을 판독하고 소견서를 자동 생성하는 방식이 실험되고 있다. 이재동 책임은 “전문의가 주말 동안 밀린 CT를 일일이 판독하는 시대는 지나가고 있다”며 “AI가 우선순위를 정하고 초안 보고서를 제시하는 시대가 열렸다”고 설명했다.

의료기관 인증평가 분야에서도 초거대 AI는 실질적인 역할을 하고 있다. 병원별 인증기준을 자동으로 분석하고, 3주기 대비 달라진 항목과 취약점을 정리해 병원장에게 보고하는 시스템 시나리오도 발표됐다. 특히 병원장 중심의 리더십 점검, 부서 간 정보공유 체계, 불시점검 리허설 지원까지 AI가 전략적으로 조언할 수 있는 수준에 이르렀다는 점에서 많은 청중들의 주목을 끌었다.

■정보보호와 규제, AI 도입의 현실적 과제

이재동 책임은 초거대 AI 도입에 따른 심각한 보안 위협과 규제 문제도 짚었다. AI 학습용 데이터의 표준화 문제, 의료정보의 저작권 침해 논란, 무분별한 개인정보 수집과 전송, 데이터 독성(data poisoning) 및 프롬프트 인젝션 공격 등 다양한 위험 요소들이 존재한다. 특히 대형 의료 언어모델(MLLM)의 취약점을 악용한 공격 사례는 이미 다수 보고되었으며, 이는 직접적인 의료 사고로 이어질 수 있는 만큼 철저한 관리가 필요하다고 강조했다.

그는 “비정형 데이터가 대부분인 의료 환경에서 AI를 제대로 활용하려면 데이터의 구조화와 보안이 필수이며, AI 개발사와 의료기관 간 협업 구조에서 개인정보 보호 책임소재도 명확히 해야 한다”고 지적했다.

■규제와 윤리, ‘책임 있는 AI’의 중요성

초거대 AI의 의료기기화에 따른 전주기적 규제 방향도 논의됐다. 미국 FDA는 기획-설계-검증-출시-폐기 전 과정에서 안전성과 재현성을 확보하도록 요구하고 있으며, WHO는 LLM이 생성하는 그럴듯하지만 부정확한 응답이 건강에 미치는 영향을 우려하며 윤리적 기준 마련을 촉구하고 있다. 이재동 책임은 “AI는 의료진의 보조 도구이지, 대체 수단이 아니다”라며 “생성과정에서의 편향과 책임 문제는 결국 인간의 윤리적 개입으로만 해결 가능하다”고 강조했다.

■초거대 AI의 의료 미래…정보보안 담당자의 준비는…

강연 마지막에서 이재동 책임은 초거대 AI가 의료 분야에서 가져올 긍정적 변화로 △개인 맞춤형 서비스 확대 △진단·예측 정확도 향상 △의료 프로세스 효율화 △신약개발 가속화 △의료데이터 통합 분석 △의료 서비스 접근성 향상을 제시했다.

하지만 이러한 변화는 철저한 보안 기반 위에서만 가능한 일이며, 정보보안 담당자의 역할은 더욱 중요해지고 있다는 점을 강조하며 발표를 마무리했다.

그는 “AI가 의료 패러다임을 바꾸고 있지만, 신뢰받는 의료 AI 생태계를 구축하기 위해서는 의료기관, 솔루션 기업, 보안 전문가가 함께 연대해야 한다”며 “정보보안 담당자야말로 의료 AI 혁신을 안전하게 이끄는 마지막 방어선”이라고 말했다.

보다 상세한 내용은 아래 강연영상을 참고하고 데일리시큐 자료실에서 다운로드 가능하다.

★정보보안 대표 미디어 데일리시큐 / Dailysecu, Korea's leading security media!★

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.