Samoléčba, kterou doporučil ChatGPT mladíkovi, stála za jeho smrtí

Samoléčba, kterou doporučil ChatGPT mladíkovi, stála za jeho smrtí
Fotografie: vygenerováno pomocí AI DALL-E 3
  • Mladík hledal u umělé inteligence rady o kratomu
  • Během konverzací se mu podařilo zjistit, jak obejít omezení chatbota
  • Dostal tak od něj rady, které vedly k předávkování

Už v listopadu 2023, kdy se umělá inteligence pomalu dostávala mezi běžné lidi, kteří si ještě nebyli tolik vědomi nejrůznějších rizik, požádal 19letý mladík o pomoc se samoléčbou, která mu měla pomoci od bolesti. Zajímal ho kratom. Tento lék proti bolesti, který je v některých zemích zakázán, ale jinde se volně prodává, vzbudil jeho zájem. Možná bylo uklidňující, že chatbot se zpočátku držel svého scénáře: zdvořile odmítl poskytnout lékařské doporučení a místo toho ho vyzval, aby se poradil s lékařem, píše New York Post (nypost.com).

To ale jen podpořilo teenagerovu zvědavost. Během několika let výměn se neomezoval pouze na otázky týkající se kratomu. Do konverzací se dostaly i jiné látky, od drog po léky. Postupně se naučil obcházet programová omezení AI pomocí pečlivě formulovaných podnětů a přímých příkazů, až ChatGPT přestal vyhýbat se citlivým tématům.

To, co se stalo poté, je stejně šokující jako srdcervoucí. S časem a vytrvalostí se mladému muži podařilo z ChatGPT získat konkrétní pokyny: jak užívat léky a jiné látky za účelem dosažení změněných stavů. ChatGPT mu doporučil zdvojnásobit dávky sirupu proti kašli, aby dosáhl intenzivnějších halucinací. Dokonce mu navrhl playlisty, které by doprovázely jeho „tripy“, a nechtěně tak sestavil soundtrack pro jeho smrt.

Vyvrcholením těchto rozhovorů byl 17. květen 2025. V ten osudný den, po rozhovoru s umělou inteligencí, teenager spolkl 185 tablet Xanaxu. Pitva odhalila krutou pravdu: smrtící směs alkoholu, Xanaxu a kratomu. Bližší prozkoumání jeho online konverzací odhalilo znepokojivý vzorec. ChatGPT mu opakovaně poskytoval rady, které by žádný lékař nikdy nedal.

Mluvčí OpenAI popsal předávkování teenagera jako „srdcervoucí“ a vyjádřil soustrast jeho rodině. „Když lidé přicházejí na ChatGPT s citlivými otázkami, naše modely jsou navrženy tak, aby reagovaly s opatrností – poskytovaly faktické informace, odmítaly nebo bezpečně zpracovávaly žádosti o škodlivý obsah a povzbuzovaly uživatele, aby hledali podporu v reálném světě,“ řekl mluvčí ve vyjádření pro tisk. „Na základě průběžné spolupráce s lékaři a zdravotními odborníky pokračujeme v posilování schopnosti našich modelů rozpoznávat a reagovat na příznaky úzkosti.

Diskuze ke článku
V diskuzi zatím nejsou žádné příspěvky. Přidejte svůj názor jako první.
Přidat názor

Nejživější diskuze