Google wprowadza nowe funkcje Gemini Live – rozpoznawanie obrazu i udostępnianie ekranu
Google stopniowo rozszerza możliwości swojego asystenta opartego na sztucznej inteligencji. Początkowo Gemini Live ograniczał się do interakcji głosowych, co sprawiało, że jego funkcjonalność była dość podstawowa. Dzięki kolejnym aktualizacjom asystent stał się bardziej wszechstronny – potrafił analizować pliki, rozpoznawać obrazy i dostarczać dodatkowych informacji na temat filmów z YouTube. Teraz Google idzie o krok dalej, udostępniając kolejną aktualizację, dzięki której sztuczna inteligencja będzie mogła odpowiadać na pytania użytkownika na podstawie widoku z kamery smartfona lub treści wyświetlanych na ekranie urządzenia.
Nowe funkcje Gemini Live
Aktualizacja Gemini Live wprowadza dwie ważne nowości: tryb wideo na żywo oraz funkcję udostępniania ekranu. To wynik integracji technologii opracowanej w ramach Projektu Astra, czyli eksperymentalnego systemu AI Google reagującego w czasie rzeczywistym na otoczenie użytkownika. Pierwowzór tej koncepcji zaprezentowano już podczas konferencji Google I/O w ubiegłym roku, gdzie przedstawiono możliwości sztucznej inteligencji współpracującej zarówno ze smartfonem, jak i inteligentnymi okularami. Ostatecznie, niemal rok później, funkcjonalność ta trafia do użytkowników smartfonów z Androidem.
Jak działa udostępnianie ekranu w Gemini Live?
Po zainstalowaniu aktualizacji użytkownicy Gemini Live zobaczą nowy przycisk „Udostępnij ekran z Live” w interfejsie asystenta. Po jego naciśnięciu Google poprosi o zgodę na nagrywanie ekranu w celu przekazania treści do asystenta. Następnie można zadać Gemini dowolne pytanie dotyczące tego, co jest aktualnie wyświetlane, a AI udzieli najlepiej dopasowanej odpowiedzi.
W przypadku potrzeby można również przerywać odpowiedzi Gemini i zadawać kolejne pytania, niezależnie od tego, czy są one związane z aktualnie oglądanym materiałem. Aby zakończyć sesję udostępniania ekranu, wystarczy rozwinąć panel powiadomień i wybrać opcję „Zatrzymaj udostępnianie”.
Tryb rozpoznawania obrazu z kamery
Oprócz udostępniania ekranu użytkownicy mogą skorzystać także z trybu analizy obrazu na żywo. Aby go włączyć, wystarczy otworzyć interfejs Gemini Live i kliknąć ikonę aparatu w lewym dolnym rogu ekranu. Spowoduje to aktywację podglądu na żywo, dzięki któremu asystent AI będzie mógł analizować otoczenie w czasie rzeczywistym.
Jeśli użytkownik skieruje kamerę na dowolny obiekt i zada pytanie na jego temat, Gemini postara się udzielić odpowiedzi na podstawie posiadanej bazy wiedzy. Domyślnie aplikacja korzysta z tylnej kamery smartfona, jednak w razie potrzeby można przełączyć się na przedni aparat, używając ikonki w prawym dolnym rogu.
Kiedy nowa funkcja trafi do użytkowników?
Chociaż funkcje udostępniania ekranu i analizy obrazu na żywo pojawiły się już na wybranych urządzeniach, Google nie udostępniło ich jeszcze globalnie. Firma zapowiedziała, że w pierwszej kolejności trafią do subskrybentów Gemini Advanced, a następnie będą sukcesywnie wprowadzane na kolejne urządzenia.
To kolejny krok w stronę bardziej zaawansowanego wykorzystania sztucznej inteligencji w codziennym życiu. Możliwość zadawania pytań dotyczących otaczającego nas świata czy treści prezentowanych na ekranie smartfona może znacznie ułatwić zdobywanie informacji i interakcję z technologią. Czy te rozwiązania okażą się rewolucyjne? Przekonamy się w nadchodzących miesiącach.