Když Google poprvé ukázal Projekt Astra, definoval ho jako umělou inteligenci, která chápe lidský svět. V prvních ukázkách ohromoval publikum na Google I/O tím, že si pamatoval, kde naposledy v místnosti viděl zapomenuté brýle. Postupem času se tato možnost jako Gemini Live dostává na naše mobilní telefony, tím však její vývoj nekončí.
Google zahájení konference I/O ukázal, jak si představuje vývoj. A udělal to pomocí hrané scénky, v níž mladík opravuje kolo. I když má ruce naprosto čisté (na rozdíl od skutečnosti), s telefonem komunikuje pouze hlasem. Po rozebrání převodovky zjistí, že ne tak docela chápe její funkci, a tak požádá telefon o návod. Ten mu mezitím nejen stáhne odpovídající PDF, ale rovnou v něm vyhledá i dotčenou pasáž, kterou ukáže na displeji nebo na požádání předčítá. A pokud by to nepomohlo, může vyhledat odpovídající video na YouTube.
Dále mladík zjistí, že jeho brzdy jsou již poněkud opotřebované, a tak nechá umělou inteligenci, aby jeho jménem zavolala do místního obchodu a zjistila, jestli mají náhradní díly. Zatímco čeká na odpověď, radí se s telefonem o tom, jaký košík na psa na kolo vybrat.
Asi nejzajímavější detail spočívá v tom, že když do místnosti vejde jeho kamarád s pozváním na jídlo, telefon se jako špičkový sluha stáhne do pozadí, konverzace mezi lidmi si nevšímá a znovu začne mluvit, až je-li vyzván – stále si však pamatuje místo i kontext přerušené konverzace.
Google toto všechno souhrnně nazývá Action Intelligence, tedy fakt, kdy je AI nejen schopna nejen nacházet odpovědi, ale i provádět akce. Postupně bychom se vybraných částí v závislosti na jazyku mohli dočkat i v našich smartphonech.