Google zaprezentowało dziś podczas swojej dorocznej konferencji deweloperskiej I/O 2025 wiele innowacji, koncentrując się przede wszystkim na możliwościach sztucznej inteligencji oraz dalszej integracji rozwiązań AI, takich jak Gemini, z istniejącymi usługami i produktami firmy. Nowości te nie tylko wyznaczają kierunek dla przyszłości cyfrowych asystentów, ale także mogą mieć istotne znaczenie dla użytkowników systemów mobilnych, również tych korzystających z iPhone’a.
Jednym z przełomowych ogłoszeń było wprowadzenie nowości w ramach Gemini — sztucznej inteligencji stworzonej przez Google, będącej odpowiednikiem ChatGPT od OpenAI czy Claude od Anthropic. Wśród zaprezentowanych funkcji pojawiło się Gemini Live, narzędzie dostępne już teraz w aplikacji Gemini na iOS. Dzięki wykorzystaniu kamery lub udostępnianiu ekranu, użytkownik może prowadzić kontekstowy dialog z AI w czasie rzeczywistym. Oznacza to m.in. możliwość identyfikacji przedmiotów, udzielania odpowiedzi na pytania dotyczące otoczenia, a także wsparcie w codziennych zadaniach — od zakupów po prace remontowe.
Gemini otrzyma także tryb Agent Mode — wirtualnego doradcy, który na podstawie naszych oczekiwań i wcześniejszej aktywności pomoże np. znaleźć bilety na wydarzenia sportowe w najlepszej cenie czy wyszukać mieszkanie według sprecyzowanych kryteriów. Kolejną nowością jest kontekst osobisty (Personal Context), czyli zdolność AI do analizowania historii wyszukiwań i informacji z innych aplikacji Google, by oferować bardziej trafne i spersonalizowane sugestie. Funkcja ta przypomina rozwiązania, które Apple dopiero planuje wdrożyć w Siri, jednak Gemini zdaje się być już o krok dalej.
Wartą odnotowania nowością jest pakiet AI Ultra, który za miesięczną opłatę w wysokości 250 dolarów oferuje rozszerzony dostęp do najnowszych narzędzi AI, nielimitowany dostęp do funkcji premium, subskrypcję YouTube Premium oraz aż 30 TB przestrzeni na dane w chmurze. Przy tej okazji Google zaktualizowało także swoje dotychczasowe plany – AI Premium przemianowano na Google AI Pro, dostępny w cenie 19,99 dolarów miesięcznie.
Google zaprezentowało także Veo 3 – usprawnioną wersję narzędzia do generowania wideo, która potrafi symulować realistyczne efekty dźwiękowe, dialogi oraz dźwięki otoczenia, a także Imagen 4 – nową odsłonę narzędzia do tworzenia obrazów. Imagen 4 jest teraz w stanie generować bardziej fotorealistyczne wizualizacje z detalami sierści, materiałów i włosów, a przy tym lepiej radzi sobie z twórczymi zadaniami, jak np. użycie liter zbudowanych z kości dinozaura w przypadku ilustracji związanej z urodzinową imprezą z motywem dinozaurów.
Równie interesującą nowością jest Deep Research, czyli funkcja umożliwiająca wgrywanie prywatnych plików PDF i obrazów, które następnie mogą posłużyć sztucznej inteligencji jako źródło wiedzy do generowania raportów i analiz. Wkrótce narzędzie to będzie mogło integrować dane także z Google Drive i Gmaila.
Google ogłosiło również znaczące zmiany w swojej wyszukiwarce. AI Mode to osobny tryb wyszukiwania, który w całości opiera się na algorytmach sztucznej inteligencji. Zamiast klasycznego przeszukiwania internetu, AI Mode rozkłada zapytania na wiele tematycznych zapytań pomocniczych, analizuje dane i przygotowuje szczegółowe, wręcz eksperckie podsumowania. Dodatkowo AI ma być w stanie analizować złożone zbiory danych, tworzyć wykresy, tabele i udzielać odpowiedzi, które dotąd zarezerwowane były dla specjalistów z danej dziedziny.
Nowatorską funkcją wyszukiwania jest też AI Mode for Shopping, który pozwala na zaawansowane wyszukiwanie produktów — użytkownik będzie mógł „przymierzać” ubrania dzięki zdjęciu przesłanemu do aplikacji, która potem nanosi realistycznie wyglądający obraz odzieży na fotografię. AI Mode pozwoli także finalizować zakupy, śledzić promocje i reagować na okazje w czasie rzeczywistym.
Google podjęło również znaczące kroki w kierunku integracji Gemini z aplikacjami codziennego użytku. Gmail otrzyma funkcję kontekstu osobistego, dzięki czemu odpowiedzi AI będą bardziej przypominać styl użytkownika – analizowane będą m.in. wcześniejsze e-maile, notatki i dokumenty z Dysku Google. Google Meet zostanie wzbogacony o funkcję tłumaczenia rozmów w czasie rzeczywistym (na początek: angielski i hiszpański), a Chrome otrzyma możliwość komunikacji z AI, która będzie analizować przeglądane strony, podsumowywać skomplikowane treści czy wskazywać najważniejsze informacje. Dodatkowo, Chrome wprowadza funkcję automatycznej zmiany haseł w przypadku wykrycia wycieku danych.
Jednym z bardziej przykuwających uwagę ogłoszeń była zapowiedź okularów rozszerzonej rzeczywistości opartych na platformie Android XR. Google zaprezentowało lekkie i stylowe okulary, które wyposażone są w wyświetlacz wbudowany w soczewkę, mikrofony, głośniki oraz kamery. Urządzenie komunikuje się z Gemini, dzięki czemu użytkownicy mogą otrzymywać tłumaczenie w czasie rzeczywistym, wskazówki nawigacyjne, a także rozpoznawanie obrazów i tłumaczenie kontekstowe na podstawie otoczenia. Jest to rozwinięcie wizji, jaką Google zapoczątkowało z Google Glass, ale tym razem ambicje sięgają znacznie dalej.
Na horyzoncie widać również nowych partnerów – Gentle Monster oraz Warby Parker dołączają do projektu, skupiając się na stworzeniu modnych i lekkich okularów XR. Z kolei Samsung przygotowuje się do premiery swojego headsetu XR jeszcze w tym roku, również opartego na Android XR.
Wszystkie te nowości świadczą o tym, że Google nie tylko aspiruje do roli lidera w dziedzinie AI i rozszerzonej rzeczywistości, ale również pragnie realnie zmienić sposób, w jaki użytkownicy korzystają z urządzeń codziennego użytku – czy to przez interaktywną kamerę smartfona, maila, wyszukiwarkę, czy też – w nieodległej przyszłości – przez inteligentne okulary wspierane przez Gemini.