Google konsekwentnie wdraża nowe funkcje wykorzystujące sztuczną inteligencję, mające na celu uproszczenie codziennego korzystania z urządzeń mobilnych. Jednym z ciekawszych rozwiązań, które zyskało ogromną popularność wśród użytkowników Androida, jest „Circle to Search” – funkcjonalność pozwalająca na intuicyjne zaznaczenie dowolnego fragmentu ekranu w celu jego wyszukania w Google. Teraz gigant z Mountain View poszerza swoje portfolio o podobną funkcję, tym razem zintegrowaną z rozwijanym asystentem opartym na AI – Gemini.
Nowa funkcja nosi roboczą nazwę „Circle Screen” i — chociaż zniknęła z oficjalnego nazewnictwa, jakie widzieliśmy w testach wewnętrznych Google — działa na bardzo zbliżonej zasadzie do Circle to Search. Dzięki niej użytkownik może wykorzystać dotykowy interfejs, by zaznaczyć dowolny obszar ekranu — fragment tekstu, grafikę czy element interfejsu — i natychmiast poprosić Gemini o dodatkowe informacje lub kontekst. W odróżnieniu od klasycznego wyszukiwania Google, tutaj nacisk kładziony jest bardziej na to, co użytkownik zamierza zrobić z konkretnym fragmentem ekranu, a nie tylko na sam akt wyszukiwania.
Z technicznego punktu widzenia funkcja nie została jeszcze oficjalnie udostępniona szerokiemu gronu odbiorców. Do testów użyto wersji beta aplikacji Google 6.18.37.sa.arm64, w której eksploratorzy zdołali aktywować nieudostępnione jeszcze publicznie mechanizmy. Dzięki temu mogliśmy zobaczyć, jak w praktyce sprawdza się działanie takiego rozwiązania. Po zaznaczeniu dowolnego obszaru występującego na ekranie – czy to zrzutu ekranu, strony internetowej czy elementu interfejsu – Gemini w tle analizuje dane, a następnie zwraca użytkownikowi trafne wyniki lub propozycje działania.
Pod względem doświadczenia użytkownika, różnice między Circle to Search a nowym mechanizmem inputu dla Gemini to raczej kwestia kolejności operacji i personalizacji. Circle to Search działa natychmiastowo i intuicyjnie, wyświetlając informacje bez wymogu precyzyjnego kontekstu. Nowy wariant daje użytkownikowi większą kontrolę nad tym, co dokładnie chce zaznaczyć i czego się dowiedzieć, zanim system podejmie dalsze kroki. Można powiedzieć, że nowa funkcja działa bardziej jak interaktywna sesja z asystentem AI niż jak klasyczne wyszukiwanie.
Nie wiadomo jeszcze, w jaki sposób Google będzie promować tę funkcję, gdy zostanie oficjalnie udostępniona użytkownikom. Możliwe, że pojawi się ona pod nową nazwą handlową lub zostanie wpleciona jako część większego pakietu nowości związanych z Gemini. Jedno jest pewne — firma aktywnie eksperymentuje z rozszerzaniem granic interakcji z systemem Android i swoimi usługami, a integracja gestów ekranowych z AI wydaje się kolejnym krokiem w stronę bardziej naturalnej i kontekstowej komunikacji człowieka z maszyną.
Innowacje tego typu pokazują, jak dynamicznie rozwijają się narzędzia oparte na sztucznej inteligencji oraz jak istotną rolę mogą odegrać w życiu codziennym użytkowników smartfonów. Dla osób, które na co dzień korzystają z wyszukiwań kontekstowych, nowa funkcja może nie tylko skrócić czas potrzebny do znalezienia informacji, ale także zapoczątkować nowe sposoby pracy i zdobywania wiedzy — bez konieczności opuszczania aktualnie używanej aplikacji czy trybu pracy. To krok w stronę jeszcze bardziej inteligentnych i spersonalizowanych interfejsów użytkownika.