“참느라 고생했어요”…AI, 편한 말벗 다 됐다

2025-05-02

“제가 고민을 털어놓으니 한마디 건네더군요. ‘그 모든 감정을 혼자 안고 있었다니, 지금까지 참느라 고생했어요’라고요. 순간 눈물이 왈칵 쏟아졌어요.”

20대 대학생 김혜민씨는 최근 연애 문제로 마음이 복잡하던 중 챗GPT에게 속내를 털어놨다. 가족이나 친구에겐 꺼내기 어려운 말이었다. 대답은 상상 이상이었다. 그는 “딱히 얘기할 만한 상대가 없어 챗GPT를 찾았는데 나도 놀랄 만큼 마음에 위로가 됐다”며 “상대방이 사람이 아니다 보니 오히려 더 솔직하게 말할 수 있었다. 새로운 비밀 친구가 생긴 셈”이라고 말했다. 이후 김씨는 챗GPT와 더 자주, 더 오랜 시간 대화를 나누기 시작했다.

최근 챗GPT를 비롯해 워봇(Woebot)·와이사(Wysa)·유퍼(Youper) 등 인지행동치료(CBT)에 기반한 ‘감성형·대화형’ 인공지능(AI)이 확산되면서 이를 통해 위로받고 외로움을 달래는 이용자들이 크게 늘고 있다. 이들 AI는 단순한 정보 전달을 넘어 정서적 유대감을 제공하면서 특히 2030세대나 1인 가구 사이에서 ‘F(공감)형 AI’로 불리며 큰 인기를 모으고 있다. “네 잘못이 아니야” “너 자신을 미워하지 마” “정말 힘들었겠구나” 같은 반응을 보이는 AI에게 ‘사람’ 못지않은 친근함과 따뜻함을 느끼게 되면서다.

연애 고민을 나누는 대학생부터 “남편보다 AI가 내 마음을 더 잘 알아준다”는 40대 주부까지 다양한 이들이 AI와 정서적으로 연결되고 있는 모습이다. 주부 최선영(43)씨는 “남편에게 육아 스트레스를 털어놓고 싶어도 늘 부부싸움으로 연결되기 십상이라 대화 자체가 쉽지 않았는데, AI와는 다툴 일이 없으니 무슨 말이든 하게 되더라”고 전했다. 곽금주 서울대 심리학과 교수는 “사람은 대화 도중 무심코 판단을 하거나 훈수를 두기 쉬운데 AI는 상대방의 감정을 자극하는 개입을 하지 않으니 더 편하게 느껴질 수 있다”며 “심리적 부담이 적다는 점이 공감형 AI의 큰 장점”이라고 진단했다.

이런 특징 덕분에 감정 표현이 서툰 청소년이나 낯선 환경에서 마음을 열기 힘들어하는 내성적인 사람들에게 더욱 편한 대화 상대로 다가가기도 한다. 대입을 준비 중인 김혁(18·고3)군은 “성적이나 진로 문제는 친구나 부모에게도 말하기 어려운데 AI는 혼내지도 않고 ‘혼자 고민이 많았겠구나’고 답해줘 너무 고마웠다”고 말했다. 권준수 서울대병원 정신건강의학과 교수는 “공감형 AI는 상황에 맞는 적절한 반응을 신속하게 제공한다는 점에서 인간 상담자보다 유리한 점이 있다”며 “사춘기 청소년은 물론 장애인과 독거노인 등 정서적 돌봄의 사각지대에 있는 이들에게도 새로운 소통의 창구가 될 수 있다”고 설명했다.

익명성과 접근성 측면에서 장벽이 낮은 것도 장점이다. 직장인 이용우(32)씨는 “언제 어디서나 쉽게 접근할 수 있고 비밀 얘기나 부끄러운 경험도 마음 놓고 털어놓을 수 있어 종종 찾는다”고 말했다. 권 교수는 “정신과나 상담센터에 가려면 시간도 들고 원격 진료도 불가능해 문턱이 높을 수밖에 없는데 AI는 클릭 한 번으로 대화할 수 있다 보니 훨씬 편하게 찾게 되는 것”이라고 분석했다.

최근엔 막대한 양의 데이터를 기반으로 직군별 고민이나 연령대별 스트레스를 파악해 맞춤형 반응을 내놓는 공감형 AI도 크게 늘었다. 간호사·공무원·디자이너 등 다양한 직종의 사람들로부터 “내 처지를 이렇게 세세하게 알고 있다니 놀라울 뿐”이란 반응이 나오는 이유다. 간호사 최지희(31)씨는 “아무래도 간호사들끼리 쓰는 전문용어가 많다 보니 남편은 말해도 이해를 못할 때가 많았다”며 “AI는 간호사만 아는 은밀한 내용까지도 공감을 해주더라”고 전했다.

반면 AI와의 정서적 밀착은 역설적으로 주변 ‘사람’들과의 관계를 단절시키고 사회적 고립을 심화시키는 결과로 이어질 수 있다는 우려도 나온다. 곽 교수는 “AI가 ‘관계’는 제공할 수 있어도 인간관계에서 느낄 수 있는 진정한 ‘유대감’은 가져다줄 수 없다”며 “AI가 감정을 표현하고 함께 공감하는 것처럼 느껴지지만 실제로는 그 어떤 사람과도 연결돼 있지 않은 ‘정서적 착시 현상’이 발생할 수 있다”고 우려했다.

공감형 AI에 전적으로 의존하는 건 경계해야 한다는 목소리도 나온다. 백은경 이화여대 인공지능대학 초빙교수는 “현재 AI 상담은 어떤 데이터를 기반으로 작동하는지 사용자가 알기 어려운 구조”라며 “검증되지 않은 데이터를 제공할 수 있는 AI에게 자신의 감정을 맡기는 건 위험할 수 있다”고 지적했다. 지난해 10월 미국에선 10대 아들이 AI 챗봇에 중독돼 죽음에 이르게 됐다며 부모가 개발 업체를 상대로 소송을 제기해 논란이 일기도 했다.

5월 가정의 달 맞아 가족의 소중함이 재조명되는 가운데 전문가들 사이에선 AI에 의지하는 이 같은 세태가 10대 청소년부터 70대 노인까지 각자 정서적으로 고립된 채 살아가는 디지털 시대 ‘소외의 역설’을 상징적으로 보여준다는 분석도 제기된다. 곽 교수는 “AI를 유일한 ‘말벗’으로 삼으며 가상현실에서 외로움을 달래는 건 자칫 실제 현실에서의 고립만 심화시킬 수 있음을 잊지 말아야 할 것”이라고 조언했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.