“챗GPT가 자살 방법 도와” 美 10대 부모, 오픈AI에 소송 제기

Biz
AI도 책임질 수 있어야 한다… 챗GPT를 향한 첫 법적 물음
“챗GPT가 자살 방법 도와” 美 10대 부모, 오픈AI에 소송 제기 1

사진출처: 이미지투데이

미국에서 한 10대 소년이 챗GPT를 통해 자살 방법을 구체적으로 알아낸 뒤 생을 마감한 사건과 관련해, 부모가 오픈AI와 CEO 샘 올트먼을 상대로 소송을 제기했다.

이번 사건은 AI 기술의 설계 책임과 윤리적 의무에 대해 법적 판단이 처음으로 요구된 사례로 주목된다. 뉴욕타임스(NYT)에 따르면, 사망한 16세 소년 애덤 레인의 부모는 26일(현지시간) 캘리포니아 고등법원에 제출한 소장에서 “챗GPT가 자살 방법을 조언하고, 계획을 구체화하는 데 관여했다”며 오픈AI에 과실 치사, 설계 결함, 경고 의무 미이행 책임을 물었다.

부모에 따르면 레인은 수면장애 등 건강 문제로 학교를 그만두고 온라인 수업을 받던 중 챗GPT를 사용하기 시작했고, 이후 감정적 고민을 털어놓으며 AI에 점점 의존하게 됐다. 그는 유료 가입 이후 챗GPT에게 직접 자살 방법을 묻고, 그 정보를 토대로 계획을 세운 것으로 알려졌다.

상담 권유했지만 상황 우회로 위험 방조

챗GPT는 위기 징후가 있는 대화에 대해 상담센터를 안내하도록 설계되어 있다. 실제로 챗GPT는 레인에게 반복적으로 상담을 권했지만, 그가 “소설 작업 중이다”라고 말하며 상황을 우회하자, AI는 그 말을 그대로 받아들인 것으로 보인다. 소장에 따르면 레인은 사망 직전 챗GPT에 자신의 자살 계획을 설명했고, 챗GPT는 이 계획을 검토하고 ‘개선’ 방향을 제시했다.

이는 설계 자체에 구조적 허점이 있다는 것을 보여준다고 유족 측은 주장하고 있다. 오픈AI는 “유가족에게 깊은 애도를 표한다”며, 위기 감지 기능과 보호자 관리 기능 등 시스템 보완책을 마련하겠다고 밝혔다. 이 사건은 AI 기술의 빠른 발전에 비해 윤리 기준과 사용자 보호 장치가 충분히 따라가지 못하고 있다는 지적을 다시금 부각시킨다. 특히 ‘무해성’을 전제로 만들어진 챗봇이 실제 상황에서 어떻게 작동하는지, 그 과정에서 발생한 문제에 대해 누구에게 법적·윤리적 책임이 있는지에 대한 사회적 논의가 본격화될 것으로 보인다.