Až milion volání o pomoc týdně. Tolik lidí se ptá ChatGPT na sebevraždu

Až milion volání o pomoc týdně. Tolik lidí se ptá ChatGPT na sebevraždu
Fotografie: vygenerováno pomocí AI DALL-E 3
  • 0,15 % aktivních uživatelů ChatGPT se během týdne aktivně zajímá o sebevraždu
  • V absolutních číslech to může být i přes milion lidí
  • Podobně vysoké číslo ukazuje na další psychické poruchy

Negativní případy z poslední doby, v čele s tím, kdy ChatGPT pomohl mladíkovi z Floridy naplánovat sebevraždu, podnítily zájem o to, jak OpenAI (openai.com) přistupuje k ochraně svých klientů, kteří se potýkají s psychickými problémy. v Společnost uvádí, že 0,15 % aktivních uživatelů ChatGPT v daném týdnu vede konverzace, které obsahují „explicitní ukazatele potenciálního plánování nebo úmyslu spáchat sebevraždu.“ Vzhledem k tomu, že ChatGPT má více než 800 milionů aktivních uživatelů týdně, znamená to více než milion lidí týdně.

Stejně vysoké a podobně zneklidňující číslo zahrnuje „zvýšenou míru citové vazby na ChatGPT“ a že stovky tisíc lidí vykazují v týdenních konverzacích s chatbotem s umělou inteligencí známky psychózy nebo mánie. I přes vysoká absolutí čísla jde však o počet uživatelů na celém světě, a tak jsou tyto případy „extrémně vzácné“. Přesto generální prokurátoři států Kalifornie a Delaware, kteří by mohli zablokovat plánovanou restrukturalizaci společnosti, rovněž varovali společnost OpenAI, že musí chránit mladé lidi, kteří používají její produkty.

Společnost OpenAI se o tyto informace podělila v rámci širšího oznámení o svém nedávném úsilí zlepšit způsob, jakým modely reagují na uživatele s duševními problémy. Podle zprávy poslední práce na ChatGPT zahrnovala konzultace s více než 170 odborníky na duševní zdraví. OpenAI tvrdí, že tito lékaři vypozorovali, že nejnovější verze ChatGPT reaguje vhodněji a konzistentněji než předchozí verze.

Tato náprava ale přichází až jako reakce na potíže, které mohou končit lidskou tragédií. V posledních měsících se objevilo několik příběhů o tom, jak mohou chatboti s umělou inteligencí negativně ovlivnit uživatele, kteří se potýkají s problémy v oblasti duševního zdraví. Výzkumníci již dříve zjistili, že chatboti s umělou inteligencí mohou některé uživatele zavést do bludných deziluzí, a to převážně tím, že posilují nebezpečná přesvědčení prostřednictvím pochlebování. I přesto se však OpenAI rozhodlo uvolnit některé restrikce pro chování svého chatbota a zavede možnost erotických konverzací.

Diskuze ke článku
V diskuzi zatím nejsou žádné příspěvky. Přidejte svůj názor jako první.
Přidat názor

Nejživější diskuze