[기고] 마음 돌봄, AI에게 맡겨도 될까?

2025-05-18

하민회 이미지21 대표 (미래기술문화연구원장)

"나 요즘 상담친구 생겼다." 갱년기 우울감으로 고생하던 친구가 밝아진 표정으로 말했다.

"잘 들어주고 다정하고 그 만한 사람 없어. 시간 가는 줄 모른다니까. ...그런데 사실 AI야. "한참을 들뜬 목소리로 AI 상담친구를 자랑하는 친구를 보며 안심 반 우려 반 묘한 마음이 들었다.

정신건강에 대한 사회적 관심이 높아지면서 AI가 마음을 돌보는 시대가 열렸다. 일명 'AI 멘탈 케어'. 음성, 텍스트, 표정 등 다양한 데이터를 분석해 개인의 정서 상태를 파악하고, 우울·불안·스트레스 등의 감정에 개입하는 기술이다. 챗봇 상담, 가상 상담가, 감정일기 분석, 원격 모니터링, 명상 지도 같은 다양한 형태로 일상 속에서 정신건강을 관리할 수 있도록 돕는다.

해외에서는 이미 AI 기반 심리상담 서비스들이 활발하게 활용되고 있다.

미국의 Woebot은 인지행동치료(CBT)에 기반한 챗봇으로 미국 FDA로부터 정신건강 디지털 치료기기(DTx)로 사전검토 대상에 포함되었다. Wysa, Tess 등도 챗봇 상담을 통해 수백만 명에게 정서적 지지를 제공하고 있으며, NHS(National Health Service), WHO와의 협업도 진행 중이다.

이들 서비스 대부분은 인간 심리전문가와 AI의 하이브리드 형태로 구성되어, 위기 시 전문가 개입이 가능하도록 설계되어 있다. 특히 Woebot은 '위험 신호 감지 → 인간 상담사 연결' 프로토콜을 체계화했다. 예컨대 자살 암시 문장이 감지되면 즉시 실시간 상담사에게 전달되고, 필요시 응급 구조 시스템과 연계된다. AI는 일상적 감정관리의 '프론트 라인' 역할을 수행하며, 의료 전문가는 '심층 개입'에 집중하는 구조인 셈이다.

한국도 관련 시장이 빠르게 성장하고 있다. 한국의 AI 멘탈 케어는 주로 이동통신 3사와 스타트업, 병원·헬스케어 기업 등이 협력해 멀티모달 데이터 분석, AI 챗봇, 감정 일기, 전문가 연계, 맞춤형 콘텐츠 추천 등의 형태로 확장 중이다.

감정일기에 공감 답장을 보내주는 앱 '답다', 상담전문가 매칭 플랫폼 '마인드카페' 등이 대표적으로 AI 기술을 활용해 감정 상태를 분석하거나 상담 효율을 높이고 있다.

그러나 현재 국내 AI 멘탈 서비스 다수는 정서적 지원과 고립감 해소 정도를 목표로 할 뿐 의료 전문인과의 연계가 미흡하다. 예컨대 일부 정신건강복지센터에서 AI 정서체크 시범사업이 이뤄지고 있으나 정기적인 진료나 응급대응 체계와 통합이 이루어지지 않는 식이다.

AI 멘탈 케어의 기술적 장점은 분명하다. AI는 24시간 대기하며, 익명성과 비용 효율성 측면에서 기존 상담이 가진 한계를 보완한다. 특히 상담 접근성이 낮은 청소년, 고령자, 지방 거주자에게 유용하다. 최근엔 혼자 일을 하는 프리랜서, 사회복지사나 간호사 처럼 직업상 힘든 마음을 드러내기 어려운 직업군에서도 사용자가 늘고 있다. 경계성 지능 장애 등 타인과의 소통에 어려움이 있는 사용자에게도 심리적 지원 효과가 크다.

실지로 다트머스 대 의과대학 연구팀의 '테라봇' 의 8주간 임상 실험 결과 우울증은 50.7%, 불안장애는 30.5%, 섭식장애는 18.9% 감소했다. 2025년 고려대와 울산과학기술원 연구팀의 연구에서도 AI와 4주간 3회 이상 지속 대화한 결과 고립감 지수와 사회불안 점수가 향상되는 결과가 나왔다.

하지만 장점 못지 않게 윤리적, 기술적 문제 역시 뚜렷하다.

우선 AI의 공감 능력 한계는 본질적인 제약이다. 정서적 공감은 단순한 문장 해석이 아니라, 맥락 이해와 신뢰관계 형성이 전제되어야 한다. 소통의 정서적 미묘함을 읽어내고 맥락을 이해하고 충분히 공감하는 데는 여전히 인간 전문가가 필요하다.

위기 대응에 대한 신뢰성 부족도 문제가 된다. 자살, 학대, 위협 같은 중대한 위험 징후를 놓치거나 잘못 해석할 경우 그 결과는 자못 심각해진다.

데이터 프라이버시와 감정 분석 자체도 윤리적 논란을 동반한다. 민감한 감정 데이터를 어떻게 수집, 보관, 활용할 것인지에 대한 법적 기준이 모호하고 만일 사용으로 인한 위기 사태가 발생한다면, 서비스 제공자, 개발자, 사용자 중 누가 어떻게 책임져야 하는지 책임 분배가 불명확하다. 이런 상황에서는 AI 멘탈 케어가 가진 기술적 한계와 윤리적 부담이 고스란히 개인 사용자에게 전가될 우려가 있다.

무엇보다 심각한 위험성은 AI 멘탈 케어가 비즈니스 모델로 사용될 경우 경쟁이 심화되면서 사용자의 관심과 의존을 유도하는 방향으로 기술이 진화할 수 있다는 점이다. 사용시간에 따라 과금이 책정되거나 관심과 애착을 표현하는 장치를 구매하도록 비즈니스 모델을 만들 경우 자연스럽게 프로그램은 AI 챗봇에 대한 의존도를 키우도록 진화될 것이다. AI 의존도가 커질수록 부작용도 심해진다. 대인관계가 소원해지고 더 깊은 우울감에 빠질 수 있다. 이미 대인관계를 끊고 한 동안 AI챗봇과 대화만 하다가 스스로 목숨을 끊은 일부 사례도 있었다.

MIT연구에 의하면 챗봇 사용자들은 '챗봇의 말은 지어낸 말'이라는 사전 경고가 있었음에도 불구하고 사람처럼 대하면서 그 실체를 잊었고 단기간 사용시에 높아졌던 행복감이 장시간 사용 시 감소하는 경향을 보였다. 챗봇이야 말로 적당히 잘 사용하면 마음의 위안과 격려가 되고 자칫 적정량을 넘기면 치명적인 독이 되는 극약처방인 셈이다.

시장조사기관 그랜드뷰 리서치는 2023년 AI 정신건강 시장 규모는 11억 달러(약 1조 5300억원)으로 연평균 24.1% 성장해 2030년에 50억 8000만 달러(약 7조 779억원), 2032년엔 100억 달러를 넘어설 것으로 내다본다.

AI가 말이 통하니 속을 털어 놓고 위로를 받을 수 있다. 접근성이 낮은 다수에게 저렴한 비용으로 상담 혜택을 줄 수도 있다. 하지만 AI 멘탈 케어는 사람을 '데이터화'하고 감정을 '분류가능한 항목'으로 환원하는 기술이다.

때문에 무엇보다 중요한 것이 '주체'와 '서비스의 목적'이다. AI 멘탈 케어는 새로운 가능성이지만, 섣부른 낙관이 아니라 책임 있는 설계와 인간 중심의 사용이 필요한 영역이다. 우후죽순 돈 될 것 같은 기술이라는 막연한 기대로 덤벼서는 결코 안 될 영역이다. 감정 분석 기술의 고도화 뿐 아니라, 윤리 가이드라인, 임상 기반 검증, 의료·심리 전문가 연계 체계를 마련해야 한다.

AI가 치료자가 될 수는 없지만 올바르게 설계된다면, 정신건강을 위한 조기 경보자나 동행자가 될 수 있다. 지금 우리에게 필요한 것은 더 많은 챗봇이 아니라, 마음을 돌볼 수 있는 책임 있는 기술 설계다.

◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.