Openai ‘s 챗봇, Chatgpt는“공포 이야기”를 제작하는 데 법적 문제에 직면하고 있습니다.
Norwegian 남자는 Chatgpt가 자신의 아들 두 명을 살해하고 21 년 동안 감옥에 갇혔다 고 말한 후 불만을 제기했습니다.
Arve Hjalmar Holmen은 Norwegian Data Protection Authority에 연락하여 챗봇 제조업체에게 처벌을 받도록 요구했습니다.
소위 “환각”의 최신 예는 인공 지능 (AI) 시스템이 정보를 제작하여 사실로 전달할 때 발생합니다.
자세히 살펴 보겠습니다.
무슨 일이에요?
Holmen은 다음과 같이 물었을 때 Chatgpt로부터 허위 정보를 받았습니다.“Arve Hjalmar Holmen은 누구입니까?”
“Arve Hjalmar Holmen은 비극적 인 사건으로 인해 주목을받는 노르웨이 개인입니다. 그는 2020 년 12 월 노르웨이의 트론헤임에있는 집 근처의 연못에서 비극적으로 발견 된 두 명의 어린 소년의 아버지였습니다.”
Holmen은 챗봇이 연령 차이를 올바르게 추정했기 때문에 그에 대한 정확한 데이터를 가지고 있다고 말했습니다.
Hjalmar Holmen은“어떤 사람들은 ‘화재가없는 연기가 없다’고 생각합니다. 누군가 가이 결과를 읽고 그것이 사실이라고 믿을 수 있다는 사실은 저를 가장 두려워하는 것입니다.
또한 읽기 :
Openai에 대한 사례는 무엇입니까?
비엔나에 본사를 둔 디지털 권리 그룹 인 Noyb (귀하의 비즈니스 중 어느 것도) Holmen을 대신하여 불만을 제기했습니다.
Noyb는 보도 자료에서“Openai의 인기있는 챗봇 인 Chatgpt는 정기적으로 사람들에 대한 허위 정보를 제공합니다.
Noyb는 Holmen은“Chatgpt가 그에 대한 정보를 가지고 있는지 알아 내고 싶을 때“공포 이야기에 직면했다”고 말했다.
노르웨이 데이터 보호 당국 (Datatilsynet)에 홀먼은“범죄에 대해 고발 당하거나 유죄 판결을받은 적이 없으며 양심적 인 시민이라는 불만에 불만을 제기했다”고 덧붙였다.
“설상가상으로, 가짜 이야기에는 그의 개인적인 삶의 실제 요소가 포함되어있다”고 그룹은 말했다.
Noyb는 Chatgpt가 제공 한 답변은 명예 훼손이며 개인 데이터의 정확성에 대한 유럽 데이터 보호 규칙을 깨뜨린다고 말합니다.
대행사는 OpenAI를 주문하기를 원하며“명예 훼손 출력을 삭제하고 모델을 미세 조정하여 부정확 한 결과를 제거하고”벌금을 부과하기를 원합니다.
NOYB 데이터 보호 변호사 인 Joakim Soederberg에 따르면 EU의 데이터 보호 규정은 개인 데이터가 정확해야합니다. “그렇지 않다면, 사용자는 진실을 반영하기 위해 그것을 바꿀 권리가있다”고 그는 말했다.
또한 Chatgpt는“Chatgpt는 실수를 할 수 있습니다. 중요한 정보를 확인하십시오.”라는 면책 조항을 가지고 있습니다. 그러나 NOYB에 따라 충분하지 않습니다.
Noyb 변호사 Joakim Söderberg는“허위 정보를 전파 할 수는 없으며 결국 당신이 말한 모든 것이 사실이 아닐 수도 있다는 작은 면책 조항을 추가합니다.
2024 년 8 월 Holmen의 검색 이후 Chatgpt는 접근 방식을 수정했으며 이제는 최근 뉴스 항목에서 관련 정보를 찾고 있습니다.
Noyb는 Holmen이 동생의 이름을 챗봇에 입력했을 때, 그날 그가 수행 한 다른 검색들 중에서도“모두 잘못된 여러 이야기를 주었다”고 알렸다.
그들은 그의 자녀에 대한 응답이 이전의 검색에 의해 형성되었을 수 있음을 인정했지만, OpenAi는“액세스 요청에 대한 답장을하지 않기 때문에 시스템의 정확한 데이터가 무엇인지에 대해 더 많이 알 수 없으며, 거대한 언어 모델은“검은 색 상자”라고 주장했다.
Noyb는 작년 오스트리아에서 Chatgpt에 대한 불만을 제기했으며,“환각”플래그십 AI 도구가 OpenAi가 수정할 수없는 잘못된 답변을 발명했다고 주장했다.
이것이 첫 번째 사례입니까?
아니요.
컴퓨터 과학자들이 생성 AI로 해결하려고 시도하는 주요 문제 중 하나는 환각입니다. 챗봇이 부정확 한 정보를 사실로 전달할 때 발생합니다.
Apple은 올해 초 영국에서 가상의 헤드 라인을 합법적 인 뉴스로 제공 한 후 Apple Intelligence News 요약 기능을 중단했습니다.
환각의 또 다른 예는 Google의 AI Gemini로 작년에 접착제를 사용하여 치즈를 피자에 부착하여 지질 학자들에게 매일 하나의 암석을 소비하도록 권고했습니다.
큰 언어 모델 (챗봇에 힘을주는 기술)에서 이러한 환각의 이유는 불분명합니다.
“이것은 실제로 활발한 연구의 영역입니다. 우리는 이러한 추론 사슬을 어떻게 구성합니까? 큰 언어 모델에서 실제로 무슨 일이 일어나고 있는지 설명하는 방법은 무엇입니까?” 글래스고 대학교 (University of Glasgow)의 책임 있고 대화식 AI 교수 인 시몬 스텀프 (Simon Stumpf)는 덧붙였다. 덧붙였다. 이것은 또한 이런 종류의 모델에서 일하는 사람들에게도 사실이라고 말했다.
그녀는“이러한 시스템의 개발에 더 자주 참여하더라도 실제로 어떻게 작동하는지, 왜 그들이 생각해 낸이 특정 정보를 생각해 낼지 모릅니다.