Umělé inteligence od Googlu, nejdříve Bard a potom i Gemini, se nechvalně proslavily svými radami a skoro každý tak slyšel o jejich doporučení pojídat kamení nebo přilepit ingredience na pizzu lepidlem. Je to logické, AI postrádá fyzické tělo, které ve věku několika málo měsíců až let učiní vlastní zkušenost s tím, co pozřít a čemu se vyhnout. Vypadá to ale, že problémy s jídlem nekončí – jen jsou komplexnější, a o to hůře odhalitelné.
O jeden takový problém, který vypadá na první pohled úsměvně, ale je jen špičkou ledovce hlubších potíží, se na sociálních sítích podělila Eva Gannonová, majitelka rodinné pizzerie Stefania’s Wentzville v americkém Missouri. Ona i její personál si všimli neobvyklých objednávek, které po nich její hosté požadovali, a které nejsou ani nikdy nebyly na jídelním lístku. Mohlo by jít jen o bezvýznamné nedorozumění, ale některé výměny názorů s nespokojenými zákazníky se vyhrotily, protože kvůli domnělé specialitě vážili dalekou cestu.
Důvod je jako v ostatních případech nasnadě: halucinace. Funkce AI Overview je také zatížena, stejně jako ostatní modely, možností výskytu tzv. halucinací. Tato zkušenost ukazuje, že i tak banální věc, jako je výběr restaurace, vyžaduje kontrolu zdroje.