A Google keddi eseménye látszólag a Pixel hardverről szólt, valójában azonban az AI-ról szólt.

Rick Osterloh, a Google egyik vezetője, már azzal világossá tette ezt, hogy színpadra lépésekor kezdeti megjegyzései sokkal inkább a Google mesterséges intelligencia erőfeszítéseire összpontosítottak, mintsem az eszközökre:

„Néhány hónappal ezelőtt, a Google I/O-n, széles körű áttöréseket osztottunk meg annak érdekében, hogy az AI mindenki számára hasznosabbá váljon. Megszállottjai vagyunk annak az ötletnek, hogy az AI megkönnyítheti és hatékonyabbá teheti az emberek életét. Segíthet nekünk tanulni. Segíthet kifejezni magunkat. És segíthet kreatívabbá válni. A legfontosabb hely, ahol ezt jól kell alkalmazni, az a mindennapi életünk része. Ezért megosztjuk a Google előrehaladását az élvonalbeli AI mobil eszközökre történő bevezetésében, amely az egész Android ökoszisztéma számára előnyös.”

A műsor első 25 percében Osterloh és kollégái nem tettek semmilyen bejelentést a Pixel 9 sorozatról, a Pixel Watch 3-ról vagy a Pixel Buds Pro 2-ről. Ehelyett olyan dolgokat emeltek ki, mint a Google technológiai halmozásába és Tensor chipjeibe történő befektetései, hogyan használja mind a hat terméke több mint 2 milliárd havi felhasználóval (Keresés, Gmail, Android, Chrome, YouTube és Google Play) valamilyen módon a cég Gemini AI modelljeit, és hogyan integrálják a Gemini és a Google AI eszközeit más, már megvásárolható Android telefonokkal. Még mielőtt bemutatták volna telefonjaikon a demókat, a Google már a színpadon mutatta be AI eszközeit Samsung és Motorola telefonokon.

A Google ezt a hardver előtti szakaszt arra is felhasználta, hogy bemutassa az esemény talán legérdekesebb részét: a Gemini Live-ot, egy eszközt, amely lehetővé teszi, hogy természetesebb párbeszédeket folytassunk a Geminivel például ötletelés vagy egy interjúra való felkészülés során. (Számomra úgy tűnt, mintha a Google válasza lenne az OpenAI lenyűgöző GPT-4o bemutatójára, jóval az I/O előtt.) És a Gemini Live még csak nem is kizárólagos Pixel funkció; keddtől kezdve a Gemini Advanced előfizetői számára elérhető Android rendszeren.

Amikor a Google végre a új hardverekről kezdett beszélni, az AI ott is mindenütt jelen volt. A Gemini válaszolhat arra, ami a telefon képernyőjén van. Az „Add Me” hozzáadhatja azt a személyt, aki csoportképeket készít egy fényképhez. A Pixel Watch most már AI segítségével érzékeli a pulzusodat. A Google még azt is elképzeli, hogy a Gemini Live-ot használod az új Pixel Buds Pro 2 használata közben.

És éppen amikor úgy tűnt, hogy Osterloh befejezi, megosztott még néhány AI bejelentést a jövőbeni tervekről. A Google tervezi, hogy lehetővé teszi, hogy megoszd a kamerádat egy Gemini Live beszélgetés során, hogy a Gemini válaszolhasson arra, amit nézel. Képes leszel alkalmazásokat is csatlakoztatni a Gemini Live-hoz. És a Gemini képes lesz kutatási jelentéseket készíteni az interneten való kereséssel – egy olyan funkció, amelyről Osterloh azt mondja, hogy a „következő hónapokban” lesz elérhető a Gemini Advanced felhasználói számára.