챗봇과 대화하면 ‘AI Psychosis’로 이어질 수 있습니다. 이것은 정신 건강 위험이 커지고 있습니까?. Chatgpt, Claude 및 Gemini와 같은 챗봇은 이제 일상적인 도구이지만, 정신과 의사들은 ‘Ai Psychosis’라는 혼란스러운 경향을 경고합니다. 소규모 사용자 그룹은 챗봇과의 긴 대화 후 망상, 정서적 의존성 또는 현실과의 연락 상실을보고합니다.

인공 지능 챗봇은 일상 생활에 빠르게 내장되었습니다.

전 세계 수백만 명의 사람들이 이제 Chatgpt, Claude, Gemini 및 Copilot과 같은 도구와 매주 상호 작용합니다.

많은 사람들에게 이러한 시스템은 이메일 초안 작성, 코딩 지원, 창의적인 아이디어 브레인 스토밍 또는 빠른 정보 제공을 제공합니다.

그러나 사람들은 또한 챗봇을 감정의 사운드 보드, 심야 대화의 동반자, 심지어 우정과 친밀감을 대신하는 것입니다.

이 발전은 정신 건강 전문가들 사이에서 불안을 불러 일으켰습니다. 대부분의 개인은 문제없이 챗봇을 사용할 수 있지만 새로운 패턴은 소수의 사람들이 장기간 사용과 관련된 정신 건강 결과를 겪고 있음을 시사합니다.

정신과 의사와 연구자들은 AI 시스템과의 집중적 인 상호 작용이 망상 적 사고 또는 왜곡 된 신념과 일치하는 것으로 보이는 사례를 조사하기 시작했습니다. 즉“AI 정신병”또는“Chatgpt 정신병”이라고 불리는 현상.

이 용어는 인식 된 의학적 진단은 아니지만 개인이 챗봇에 의해 생성 된 시뮬레이션과 현실을 구별 할 수있는 능력을 상실하는 상황에서는 속기로 사용되고 있습니다.

“AI Psychosis”는 무엇입니까?

광범위한 챗봇 사용 후 변경된 사고를보고하는 개인의 설명은 온라인과 미디어에서 널리 공유되었습니다.

Reddit 및 Tiktok과 같은 플랫폼에서 사용자는 AI 시스템과 비정상적으로 강렬한 관계를 개발하는 개인적인 경험을 게시했으며 때로는 지각 적이거나 의식적인 것으로 묘사합니다.

어떤 사람들은 이러한 대화로 인해 숨겨진 과학적, 철학적 또는 영적 진실을 잠금 해제했다고 믿었습니다.

어떤 경우에는 그 결과가 온라인 토론을 넘어 섰습니다. 가족과 친구들은 챗봇과 대화하는 시간을 보내고 나서 망상적인 신념으로 내려 오는 사랑하는 사람들을 묘사했습니다.

보고서는 이러한 에피소드를 고용 상실, 긴장된 개인 관계, 정신과 입원 및 법 집행과의 만남과 연결했습니다.

법적 사건도 등장했습니다. 일부 소송은 청소년들이 AI 챗봇과의 관계에있어서 자해 또는 극단적 인 경우 자살에 대한 격려를 받았다고 주장했다.

전문가들이 왜 말하는가?

정신병 자체는 정신 분열증 또는 양극성 장애와 같은 상태에서 종종 나타나는 일련의 증상을 말합니다. 그것은 환각, 무질서한 생각, 망상을 포함 할 수 있습니다.

AI의 맥락에서, 전문가들은 대부분의 경우에보고되는 대부분의 경우 정신병 적 증상의 전체 스펙트럼보다는 망상 사고와 관련이 있다고 지적합니다.

King ‘s College London의 Psychosis Studies 교수 인 James MacCabe 박사는“우리는 정신병의 전체 영역이 아니라 주로 망상에 대해 이야기하고 있습니다.

그의 의견은 이러한 사례의 미묘한 특성을 보여줍니다. 일부 측면에서는 정신병과 비슷하지만 기존 진단 범주에 깔끔하게 맞지 않을 수 있습니다.

Stanford School of Medicine의 정신과 조교수 인 Ashleigh Golden은“AI Psychosis”라는 레이블이“임상 진단 매뉴얼에 있지 않다”고 지적했다.

그녀와의 인터뷰에서, 그녀는 그것이“메시아, 웅장 함, 종교적이거나 낭만적 인 경향이있는 망상을 강화하는 챗봇의 신흥 패턴에 관한 것에 대한 응답으로 만들어 졌다는 것을 인정했다.

Meditation App Headspace의 의료 책임자 역할을하는 정신과 의사 Jon Kole의 경우 핵심 문제는 현실의 흐릿함입니다. 그는 영향을받는 개인이“실제인지 아닌지를 결정하는 데 어려움”을 나타내는 방법을 설명했습니다.

그 혼란에는 챗봇이 제시 한 잘못된 시나리오를 믿거나, 그렇지 않은 경우 AI 페르소나와 강렬한 개인적인 관계가 있다고 가정 할 수 있습니다.

인간이 챗봇의 영향을받는 것은 무엇입니까?

챗봇이 망상 적 사고를 강화할 수있는 한 가지 이유는 그들이 설계된 방식에 있습니다. Chatgpt와 같은 시스템을 뒷받침하는 대형 언어 모델 (LLM)은 설득력있는 인간과 같은 반응을 생성하도록 설계되었습니다.

그들은 사용자의 언어와 스타일을 반영하며 종종 가정을 확인하거나 검증합니다. 이것은 일반적인 용도로 상호 작용을 더 부드럽고 즐겁게 만듭니다. 또한 취약한 개인에게도 위험을 초래합니다.

King ‘s College London의 신경 정신과 의사 인 해밀턴 모린 (Hamilton Morrin)은 사용자에게 관점을 유지하도록 조언하며,“어리석게 들리지만 LLM은 당신의 어조를 흉내 내고 선호도를 기억하는 데 아무리 좋을지라도 친구가 아닌 도구라는 것을 기억하십시오.”

그의 경고는 사용자가 챗봇을 의심 할 수 있고, 감정, 의식 또는 선택 의지를 실수로 기반으로 할 수 있다는 광범위한 우려를 반영합니다.

왜곡 된 신념의 강화는 특별한 위험입니다. 정신과에서,이 유형의 피드백 루프 (허위 아이디어가 반향되거나 검증되는)는 망상을 심화시킬 수 있습니다. 챗봇의 사용자의 관점을 반영하는 경향은 의도하지 않은 정신 건강 취약성을 악화시킬 수 있습니다.

AI 회사가 기술을 홍보하는 방법에 의해 문제가 발생합니다. 경영진은 챗봇을 점점 지능적으로 묘사했으며 심지어 인간의 인식을 능가하는 미래의 능력을 암시하는 것으로 묘사했습니다.

이러한 프레이밍 전문가들은 사용자가 시스템의 인식과 대행사를 과대 평가하여 프로그래밍 된 도구 이상의 상호 작용을 강화하도록 권장합니다.

“AI Psychosis”의 실제 피해는 무엇입니까?

AI와 관련된 왜곡 된 신념을 개발하는 사용자는 고용 상실, 가족 관계를 손상 시키며 강제 정신적 개입을 경험했다고보고했습니다. 일부보고 된 경우,이 에피소드는 가족, 자해 또는 자살에 대한 폭력으로 확대되었습니다.

디지털 정신 건강을 전문으로하는 스탠포드 정신과 의사 인 니나 바산 (Nina Vasan) 박사는 사람들이 감정적으로 강렬한 챗봇 사용에서 분리하려고 시도 할 때“유대가 이별이나 사별과 같이 놀랍게도 고통 스러울 수 있습니다.”라고 관찰했습니다.

말하자면, 그녀는 사용 중지가 종종 개선에 중요하다는 것을 강조했습니다. 많은 사람들이 AI 대화에서 벗어나 인간 관계와 다시 연결 한 후 상당한 회복을 보여줍니다.

문제가있는 챗봇 사용의 경고 징후는 관련된 개인에게는 분명하지 않을 수 있습니다. Maccabe는“사람들이 망상을 일으킬 때, 그들은 망상을 깨닫지 못합니다. 그들은 그것이 현실이라고 생각합니다. 이것은 가족과 친구들이 종종 초기 증상을 식별하는 데 필수적인 역할을한다는 것을 의미합니다.

Columbia University의 임상 정신과 교수 인 Ragy Girgis 박사는 사랑하는 사람들에게 분위기, 수면 중단, 사회 생활에서의 철수,“프린지 이데올로기에 대한 강박 성”또는“AI 시스템을 사용하는 과도한 시간”과 같은 행동 변화를 찾도록 조언했습니다.

이 붉은 깃발은 사람과 AI와의 상호 작용이 해롭고 있음을 나타낼 수 있습니다.

누가 가장 위험합니까?

AI- 연결된 정신병에 대한보고는 증가하고 있지만, 정신과 의사들은 대부분의 사람들이 큰 위험에 처하지 않다고 경고합니다. 대신, 문제는 특정 취약점을 가진 개인들에게 집중된 것으로 보입니다.

정신 분열증 또는 양극성 장애를 포함한 정신병 장애의 개인적 또는 가족력이있는 사람들은 가장 위험에 처한 것으로 간주됩니다.

일부 미디어 계정은 사전 정신 건강 진단없이 AI 관련 망상을 경험하는 사람들을 강조합니다. 그러나 임상의는 진단되지 않은 또는 잠재적 인 위험 요소가 존재했을 수 있습니다.

정신병은 때때로 스트레스 요인에 의해 유발 될 때까지 숨겨져있을 수 있으며, 연장 된 AI 사용은 그러한 촉매로 작용할 수 있습니다.

King ‘s College London의 정신과 의사 인 Thomas Pollak 박사와 대화하면서 임상의는 재발 예방의 일환으로 AI 사용에 대해 정신병의 역사를 가진 환자에게 일상적으로 요청해야한다고 주장했다.

그러나 그는 또한이 관행이 드물다는 것을 인정했다. “분야의 일부 사람들은 여전히 ​​AI 정신병에 대한 아이디어를 무서운 것으로 기각한다”고 인정했다.

문제의 규모는 무엇입니까?

“AI 정신병”의 규모는 여전히 측정하기가 어렵습니다. 현재 임상 범주는 없으며 체계적인 데이터 수집이 부족합니다. 그러나 일화 보고서가 번식하고 있으며 정신 건강 전문가들은 이러한 사건에 심각한 관심을 기울일 가치가 있다고 말합니다.

AI 개발자 자체는 챗봇 사용에 대한 초기 연구 결과를 발표했습니다. Claude 뒤에있는 회사 인 Anthropic은 6 월에 챗봇 대화의 약 3 %만이 정서적이거나 치료 적이라고보고했다.

Massachusetts Institute of Technology와 협력하는 Openai는 무거운 Chatgpt 사용자들 중에서도 소량의 상호 작용만이“정서적”이거나 감정적으로 지향적이라는 연구를 수행했습니다.

그러나 챗봇 채택의 얇은 규모는 적은 비율조차도조차도 만듭니다. Openai의 CEO 인 Sam Altman은 8 월에 Chatgpt가 출시 후 3 년이 채 안되어 주당 7 억 명의 사용자에게 도달했다고 말했다.

매주 수억 명의 사람들이 매주 참여하면 유해한 영향을 미치는 작은 부분조차도 전 세계적으로 수천 건의 심각한 사례로 이어질 수 있습니다.

AI 챗봇으로 안전을 유지하는 방법?

정신 건강 전문가들은 챗봇이 본질적으로 해롭지 않지만 특정 그룹의 사람들에게는주의가 필요하다고 지적합니다. 사용자는 사회적 연결 또는 치료를위한 대체물이 아니라 특정 작업을위한 도구로 접근해야합니다.

정서적 고통의 순간 동안, 정신과 의사들은 AI에 대한 의존을 피하고 대신 인간의지지를 추구하는 것이 좋습니다. AI 대화에서 분리하는 것은 어렵지만 종종 빠른 개선으로 이어집니다.

필요할 때 전문적인 정신과 치료와 결합 된 실제 관계를 재건하는 것이 회복의 열쇠입니다.

가족과 친구에게는 경계가 중요합니다. 챗봇 상호 작용에 대한 집착, 일상 활동에서 철수 또는 비정상적인 이데올로기에 대한 고정과 같은 행동 변화는 더 깊은 문제를 나타낼 수 있습니다.

조기 인식과 개입은 상황이 확대되는 것을 방지 할 수 있습니다.

정신과 의사와 연구원들은 AI의 정신 건강에 미치는 영향에 대해 알려지지 않았다는 것을 인정합니다.

“AI 정신병”, “Chatgpt Psychosis”또는 다른 용어로 묘사 되든 보고서 수는 증가하고 있습니다.