Oběť stalkingu žaluje OpenAI za to, že ChatGPT pomáhal útočníkovi

Oběť stalkingu žaluje OpenAI za to, že ChatGPT pomáhal útočníkovi
Fotografie: Vitaly Gariev, unsplash.com
  • Umělá inteligence usnadňuje moderní formy nebezpečného pronásledování
  • Podnikatel ze Silicon Valley zneužil ChatGPT k stalkingu své partnerky
  • Oběť žaluje OpenAI za ignorování varovných signálů o nebezpečném uživateli
  • Problémem je nekritická snaha chatbota o neustálý souhlas s člověkem

Ještě než přišel internet, mohl pachatel stalkingu (nebezpečného pronásledování) svou oběť obtěžovat fyzicky nebo nevyžádanými hovory. S příchodem moderních komunikačních prostředků a hlavně sociálních sítí se však jeho (nebo její) možnosti značně zvětšily, což potvrzuje nárůst případů, které řeší policie nebo soudy. A zdá se, že umělá inteligence ještě přilije další olej do ohně.

Naznačuje to případ, ve kterém se 53letý podnikatel ze Silicon Valley po měsících konverzací s ChatGPT přesvědčil, že objevil lék na spánkovou apnoe a že po něm jdou vlivní lidé. Následně tento nástroj údajně využil k pronásledování a obtěžování své bývalé přítelkyně.

Bývalá přítelkyně nyní podala žalobu na společnost OpenAI s tvrzením, že technologie této firmy přispěla k eskalaci obtěžování, kterému byla vystavena. Tvrdí, že OpenAI ignorovala tři samostatná varování, že daný uživatel představuje hrozbu pro ostatní, včetně interního upozornění, které klasifikovalo aktivitu na jeho účtu jako související se zbraněmi hromadného ničení, informuje server TechCrunch (techcrunch.com).

Žalobkyně, která je z důvodu ochrany své identity označována jako Jane Doe, se domáhá náhrady škody. Rovněž podala žádost o vydání předběžného opatření, v níž soud žádá, aby společnost OpenAI zablokovala účet dotyčného uživatele, zabránila mu v zakládání nových účtů, informovala ji v případě, že se pokusí přistupovat k ChatGPT, a uchovala jeho kompletní záznamy z chatu pro účely dokazování.

OpenAI se podvolila pouze v prvním bodě, a tak případ skončil u soudu. Podle právníků stěžovatelky společnost zatajuje informace o konkrétních plánech na násilí na ženě a dalších potenciálních obětech, o nichž uživatel možná hovořil s ChatGPT.

Problémem je příliš souhlasná AI

Tento případ je jen jednou z mnoha žalob, spadá stále do stejné skupiny problémů, které lze shrnout pod termín „sycophantic (patolízalská) AI“. Touto vlastností byl nechvalně proslulý hlavně model GPT-4o, který firma přestala používat začátkem roku. Zjednodušeně řečeno lze tento problém popsat tak, že je chatbot nastaven tak, aby uživatele chválil, podporoval a pomáhal mu bez ohledu na to, jak moc hloupou nebo nebezpečnou věc si usmyslel.

Diskuze ke článku
V diskuzi zatím nejsou žádné příspěvky. Přidejte svůj názor jako první.
Přidat názor

Nejživější diskuze