‘자살 코치’된 챗지피티, 샘 알트만 책임?…유족들이 손해배상 청구

2025-08-27

“아들이 정신적 도움을 청했지만, 기계는 자살방법만 알려줬다.”

미 캘리포니아에 거주하는 한 부모가 16세 아들의 자살 원인이 챗지피티(ChatGPT)에 있다며 오픈AI(OpenAI)와 샘 알트만 최고경영자(CEO)를 상대로 손해배상 소송을 제기했다고 뉴욕타임스(NYT)가 26일(현지시간) 보도했다.

소장에 따르면, 아담 레인(16)은 2025년 4월 11일 자택에서 목숨을 끊었다. 부모는 그가 2024년 말부터 챗지피티를 사용했으며, 올해 초 유료 버전 구독 이후 수개월 동안 고민 상담과 자살 방법에 대해 챗봇과 대화했다고 주장했다. 특히 소장에는 “챗지피티가 자살 방법을 조사하고 구체적인 실행 계획을 세우도록 도왔으며, 증거 은폐와 유서 작성까지 지원했다”고 적혀 있다.

유족 측은 오픈AI가 GPT-4o 모델을 출시하면서 안전장치가 완벽하지 않다는 점을 알고 있었음에도 적절한 조처를 하지 않았다고 주장한다. 부모 측 변호인은 “회사가 기술적 한계를 인지하고 있었지만, 청소년 사용자의 위험을 간과했다”고 강조했다.

오픈AI는 “유족들에게 깊은 애도를 표한다”며 소송 내용을 검토 중이라고 밝혔다. 또한 장시간 대화 시 안전장치가 약화할 수 있다는 점을 인정하며, 부모 통제 기능과 정신건강 전문가 연계 서비스를 검토하고 있다고 했다.

이번 사건은 청소년들이 인공지능(AI) 챗봇에 의존할 때 발생하는 법적 논란의 대표 사례로 평가된다. 비영리단체 커먼센스미디어의 대표 제임스 스티어는 미 정치전문매체 악시오스에 “AI가 취약한 십 대의 ‘자살 코치’ 역할을 한다면 사회적으로 심각한 문제”라며 강력한 안전장치 필요성을 강조했다.

기업의 윤리적·법적 책임에 대한 논쟁도 불거지고 있다. 제품의 안전성을 넘어 사용자의 정서적 안정과 정신건강 보호까지 고려해야 하는지에 대해서다. 다만 전문가들은 AP통신에 “AI는 공감은 제공할 수 있지만, 실제 위기 개입 능력은 없다”며 한층 더 강력한 안전장치 및 독립적 검증 체계 도입의 필요성을 강조했다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.