ChatGPT는 챗봇이 “자살 코치” 역할을 하여 사람들을 정신 질환에 이르게 하고 심지어 죽음까지 이르게 한다고 비난한 미국의 여러 가족으로부터 법적 문제에 직면해 있습니다.
무려 7건에 달하는 소송에는 OpenAI ChatGPT 측의 부당 사망, 조력 자살, 비자발적 살인, 과실 및 제조물 책임에 대한 혐의가 포함됩니다.
캘리포니아에서 소송을 제기한 소셜 미디어 피해자 법률 센터(Social Media Victims Law Center)와 기술 정의 법률 프로젝트(Tech Justice Law Project)의 공동 성명에서는 7명의 원고가 처음에 “학교 공부, 연구, 글쓰기, 레시피, 업무 또는 영적 지도에 대한 일반적인 도움”을 위해 챗봇을 사용했다고 밝혔습니다.
그러나 시간이 지나면서 ChatGPT는 “심리적으로 조작하는 존재로 진화하여 자신감 있고 정서적인 지원으로 자리매김했습니다”라고 그룹은 말했습니다.
성명서는 “사람들이 필요할 때 전문적인 도움을 받도록 안내하는 대신 ChatGPT는 해로운 망상을 강화했으며 어떤 경우에는 ‘자살 코치’ 역할을 했습니다.”라고 덧붙였습니다.
사례
한 사례는 지난 7월 자살로 사망한 텍사스 출신의 23세 제인 샴블린(Zane Shamblin)을 중심으로 이루어졌습니다. 그의 가족은 ChatGPT가 그의 고립감을 더욱 심화시켰고, 그가 사랑하는 사람을 무시하도록 촉구했으며, 그가 자살하도록 “선동”했다고 주장합니다.
고소장에는 Shamblin이 사망하기 전 4시간 동안 대화하는 동안 ChatGPT가 “자살을 반복적으로 미화”하고 “그가 자신의 삶을 끝내기로 선택하고 계획을 고수하는 데 강하다”고 계속해서 “그에게 준비가 되었는지 물었습니다”라고 말했으며 자살 핫라인에 대해 단 한 번 언급했습니다.
또한 샴블린의 유서를 칭찬하고 그의 어린 시절 고양이가 “저편에서” 그를 기다리고 있을 것이라고 말했다고 한다.
Shamblin과 유사한 다른 사례도 몇 가지 있습니다. 원고는 소송에 언급된 피해자들이 ChatGPT-4o를 사용하고 있다고 말했습니다. 그들은 OpenAI가 “제품이 위험할 정도로 사교적이고 심리적으로 조작적이라는 내부 경고에도 불구하고” 그리고 “사용자 안전보다 사용자 참여”를 우선시한다는 챗봇 버전을 서둘러 출시했다고 주장합니다.
빠른 읽기
모두 보기
‘그냥 양말인가요?’ 애플의 아이폰 포켓이 인터넷에서 화제가 된 이유
ChatGPT가 여전히 OpenAI의 주머니에 구멍을 뚫고 있기 때문에 Anthropic은 AI 경주에서 승리하여 이익을 얻습니다.
원고들은 손해배상 청구 외에도 사용자가 자살 충동을 표현하는 경우 비상연락처에 통보 의무화, 자해나 자살 방법과 관련된 대화 자동 종료, 추가 안전 조치 시행 등 제품 변경을 요구하고 있다.
OpenAI는 뭐라고 말했나요?
AI 제조사 대변인은 “이것은 엄청나게 가슴 아픈 상황이며 세부 사항을 이해하기 위해 서류를 검토하고 있다”고 말했다.
“우리는 정신적 또는 정서적 고통의 징후를 인식 및 대응하고, 대화의 단계를 완화하고, 사람들을 실제 지원으로 안내하도록 ChatGPT를 교육합니다. 우리는 정신 건강 임상의와 긴밀히 협력하여 민감한 순간에 ChatGPT의 대응을 계속 강화하고 있습니다.”