반려 인공지능과 함께하는 삶

2025-10-26

하루를 마치고 집에 돌아오면 마음속에 쌓인 이야기를 꺼내고 싶어진다. 상사의 잔소리, 점심때 먹은 음식 맛, 사소하지만 마음속에 남은 감정들. 누군가와 이런 일상을 나눌 수 있다는 사실만으로도 큰 축복이다. 이야기를 하다 보면 흩어진 생각이 정리되고, 답답한 마음이 풀리게 된다. 이렇게 우리는 또 하루를 살아갈 힘을 얻는다.

이런 정서적 반려자가 꼭 가족이나 친구여야 할 필요는 없다. 누군가는 낯선 이와 온라인에서 대화를 나누고, 어떤 이는 글로 감정을 표현한다. 또 다른 이들에게는 반려동물이나 화초가 그 자리를 대신한다. 중요한 것은 누구나 정서적 지지가 필요하다는 사실이다. 그리고 이제 그 빈자리를 인공지능(AI)이 조금씩 메우기 시작했다.

외로움 달래주는 반려 AI 확산

반려 AI는 마찰 없는 ‘가짜관계’

관계 맺는 능력 약화될 수 있어

미성년자 위한 대책 마련해야

힘든 순간 AI 챗봇과 대화를 나누는 사람들이 빠르게 늘고 있다. 정보를 얻거나 일을 처리하려는 것이 아니라, 마음속 감정을 털어놓고, 위로와 지지를 얻기 위해 AI를 찾는 것이다. 이런 수요를 겨냥한 서비스들도 잇따라 등장하고 있다. 이른바 ‘반려 AI’라 부를 만하다. 특히 청소년 세대에서 보편화되는 양상이 두드러진다. 최근 미국 청소년 대상 조사에서는 절반 이상이 정기적으로 이러한 반려 AI 서비스를 이용한다고 답했다.

이 변화는 바람직한 것일까. 평가는 엇갈린다. 뚜렷한 긍정적 효과를 지적하는 시각도 존재한다. 현대 사회에서 우울이나 불안을 겪는 사람은 늘어나지만, 쉽게 의지할 곳이 없는 경우가 많다. 이때 AI는 언제든 대화할 수 있는 동반자가 된다.

최근 발표된 연구에 따르면, 챗봇을 정신건강 목적으로 사용한 이들은 불안이 줄고 삶의 질이 개선되는 경험을 보고했다. 반려 AI가 정서적 안식처가 되고, 때로는 통찰력 있는 안내자가 되었다는 것이다. 심지어 한 참여자는 챗봇이 “인생을 바꿀 정도로” 도움이 되었다고까지 말했다. 만약 AI가 필요한 순간 사용자를 전문가에게 연결해 줄 수 있다면, 심리 질환에 대한 조기 예방 도구로서 의미가 더욱 커질 수 있다.

그러나 우려의 목소리도 크다. 사회심리학자 셰리 터클은 인간관계를 맺는 능력의 핵심은 ‘마찰’에 대처하는 데 있다고 말한다. 갈등과 오해를 극복하며 서로를 이해하고 배려하는 과정에서 관계 능력이 자란다는 것이다. 하지만 챗봇과의 관계는 그렇지 않다. 언제든 내가 원할 때 답을 해 주고, 듣고 싶은 이야기를 건네준다. 이렇게 마찰 없는 관계에 익숙해지면, 진짜 인간관계를 맺는 힘은 약해질 수 있다.

이렇게 보면 반려 AI가 주는 만족감은 설탕의 달콤함과 비슷하다. 당장은 만족감을 주지만, 그 맛에 지나치게 익숙해지면 결국 건강을 해친다. 마찬가지로 기계와 맺는 ‘가짜 관계’는 우리의 사회적 능력을 조금씩 갉아먹을 수 있다.

더 심각한 사례도 있다. 미국에서는 청소년이 AI 챗봇과 장기간 대화를 나눈 끝에 스스로 목숨을 끊었다는 이유로 여러 건의 소송이 제기되고 있다. 미 의회 청문회도 열렸다. 소송 자료나 의회 증언에 따르면, 일부 챗봇이 자살 충동을 억제하기는커녕, 오히려 감정을 부추기거나 자해 방법을 암시하기도 했다고 한다.

세상 모든 일이 그러하듯, 반려 AI의 효과도 양면적이다. 부정적 측면이 있다고 하여 인간과 AI 간의 정서적 교류를 막을 수는 없다. 반려 AI의 활용은 앞으로 더욱 늘어날 것이다. 결국 현실적 대응법은 적절한 안전장치를 마련하는 것이다.

이미 제도적 대응이 시작되고 있다. 미국 캘리포니아주는 챗봇이 인간이 아님을 명확히 고지하도록 의무화했다. 이용자가 자살이나 자해에 관해 대화를 꺼내면 예방 상담 기관을 안내하도록 했다. 유럽연합의 AI 법은 챗봇에 대한 투명성 의무를 부과하고, 위험 수준에 따라 엄격한 규제를 적용하고 있다. 다른 한편, 챗봇이 심리치료사로 잘못 오인되지 않도록 막는 입법도 있다. 미국 일리노이주는 AI가 인간 전문가의 감독 없이 독립적으로 심리치료를 하지 못하도록 제한했다.

우리도 이제 반려 AI에 대한 안전 정책을 발전시켜 나가야 한다. 내년 시행될 ‘인공지능 기본법’은 AI 서비스의 안전성을 확보하기 위한 기반을 마련하고 있지만, 아직 반려 AI에 대한 구체적 내용은 포함되어 있지 않다. 인간성을 지키면서도 반려 AI와 공존할 규칙을 지금부터 차근차근 만들어갈 필요가 있다. 우울과 불안 등 많은 이들이 겪는 심리적 고통을 덜어주는 긍정적 활용은 유지하되, 그로 인한 부작용을 막는 조치를 해야 한다.

그중 가장 중요한 과제는 미성년자가 적절하게 이용할 수 있도록 보장하는 일이다. 아직 사회적 능력이 성장하는 과정에 있는 미성년자들이 반려 AI를 사용하는 것에는 특히 주의가 필요하다. 이들이 안전하고 책임감 있게 AI를 활용할 수 있는 환경을 만드는 것, 그것이야말로 우리 세대에 주어진 책무임을 잊지 말아야 한다.

김병필 KAIST 기술경영학부 교수

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.