Google nie zwalnia tempa w rozwoju swojego ekosystemu opartego na sztucznej inteligencji. Kolejną przełomową nowością, która trafia właśnie do użytkowników urządzeń z Androidem, jest rozszerzenie funkcji Gemini Live – inteligentnego asystenta bazującego na języku naturalnym. Od teraz narzędzie to wspiera udostępnianie obrazu z kamery oraz ekranu smartfona, co otwiera zupełnie nowe możliwości w zakresie interakcji z AI. To część projektu o nazwie Astra, którym Google chwaliło się już podczas konferencji I/O 2024. Teraz funkcjonalność ta staje się dostępna dla coraz większej grupy odbiorców.
Gemini Live to asystent stworzony z myślą o jeszcze bardziej naturalnym i kontekstowym sposobie komunikacji z technologią. Dotychczas umożliwiał on prowadzenie rozmów głosowych oraz tekstowych, ale z nową aktualizacją użytkownicy mogą przekazywać mu również obraz z kamery oraz zawartość własnego ekranu. To kluczowe rozszerzenie, które pozwala Gemini’emu lepiej rozumieć, co użytkownik ma na myśli, analizując m.in. to, co widzi. Przykładowo, gdy zadasz pytanie związane z jakimś obiektem, wystarczy pokazać go kamerze – AI „zobaczy”, co trzymasz w ręce, i odpowie na twoje pytania w tym kontekście. Podobnie wygląda to w przypadku udostępnienia ekranu, gdy chcesz szybko wyjaśnić funkcję aplikacji lub poprosić o pomoc w rozwiązaniu problemu.
Aktualizacja wprowadzająca te funkcje jest stopniowo udostępniana użytkownikom Androida posiadającym zainstalowaną aplikację Gemini. Warto zaznaczyć, że początkowo były one zarezerwowane wyłącznie dla subskrybentów wersji Gemini Advanced oraz niektórych modeli flagowych smartfonów. Google jednak oficjalnie ogłosiło, że pozytywny odbiór nowości przez użytkowników zmotywował firmę do rozszerzenia wsparcia na szersze grono urządzeń. Oznacza to, że już dziś coraz więcej osób może korzystać z pełnych możliwości Gemini Live – wystarczy zaktualizować aplikację i uruchomić odpowiednią funkcję.
Aby skorzystać z możliwości obrazowania i udostępniania obrazu ekranu, wystarczy uruchomić aplikację Gemini i nacisnąć przycisk Gemini Live, który znajduje się po prawej stronie pola tekstowego. Po wejściu do interfejsu Gemini Live pojawią się dwa nowe przyciski – jeden do aktywacji kamery, drugi do transmisji zawartości ekranu. Po wybraniu odpowiedniej opcji rozpoczyna się transmisja, dzięki której asystent AI może analizować dane wizualne w czasie rzeczywistym i dostosowywać swoje odpowiedzi do widzianych treści. W praktyce oznacza to ogromny wzrost elastyczności działania – nie musisz już wszystko opisywać słowami, możesz po prostu „pokazać” Gemini’emu, o co chodzi.
Niestety, użytkownicy iPhone’ów będą musieli uzbroić się w cierpliwość. Google nie ogłosiło jeszcze żadnych oficjalnych planów wdrożenia tych funkcji dla systemu iOS. Mimo że coraz więcej usług Google’a trafia na platformę Apple, w tym przypadku firma najwyraźniej skupia się na rozwoju funkcji dla własnego ekosystemu Androida. Możemy jednak mieć nadzieję, że pozytywny odbiór u użytkowników Androida stanie się impulsem do szybszego wprowadzenia udostępniania kamery i ekranu również na iPhone’ach.
Warto dodać, że z relacji użytkowników w serwisie Reddit wynika, że nowa funkcja faktycznie pojawia się już na wielu urządzeniach. Jeden z nich sugeruje, że czasem wystarczy kilkukrotnie wymusić zatrzymanie aplikacji Google, aby po jej ponownym uruchomieniu pojawił się dostęp do nowego interfejsu. To dobra wiadomość dla wszystkich, którzy nie lubią czekać – czasem warto sprawdzić ręcznie, czy aktualizacja już trafiła na nasze urządzenie.
Funkcja udostępniania obrazu i ekranu w Gemini Live to nie tylko ciekawostka, ale realne wsparcie dla codziennego użytkownika. Od pomocy przy rozwiązywaniu problemów technicznych, przez identyfikację przedmiotów, aż po edukacyjne i zawodowe zastosowania – możliwości są niemal nieograniczone. To kolejny krok w stronę jeszcze bardziej spersonalizowanej i inteligentnej interakcji człowieka z maszyną.