Google wprowadza do Geminiego funkcję nazwaną Personal Intelligence, która ma rozwiązać jedno z najczęstszych zastrzeżeń wobec asystentów AI — ich problem z „pamięcią” o użytkowniku. Dzięki tej opcji model może uzyskać dostęp do wybranych aplikacji Google, takich jak Gmail, Zdjęcia, Wyszukiwarka czy YouTube, i wykorzystywać informacje z nich w czasie rzeczywistym, by odpowiadać w sposób bardziej dopasowany do konkretnej osoby.
Różnica względem wcześniejszego działania Geminiego polega na przejściu od prostego pobierania pojedynczych elementów (np. jednego e‑maila czy zdjęcia) do „myślenia” w kontekście zgromadzonych danych. Google opisuje to jako rozwiązanie problemu „pakowania kontekstu”: codzienne życie generuje znacznie więcej danych, niż model może jednocześnie przetworzyć, więc system wybiera tylko najbardziej relewantne fragmenty — e‑maile, zdjęcia czy wyszukiwania — i udostępnia je modelowi w momencie, gdy są potrzebne.
Funkcja opiera się na rodzinie modeli Gemini 3, które oferują ulepszone wnioskowanie, lepsze wykorzystanie narzędzi oraz niezwykle szerokie okno kontekstowe na poziomie miliona tokenów. Nawet to jednak nie wystarcza, by „przejeść” całą skrzynkę pocztową czy bibliotekę zdjęć, stąd mechanizm selekcji danych, który ma dostarczać tylko kluczowe informacje w danym zadaniu.
W praktyce Personal Intelligence może działać wieloaspektowo. Na przykład przy pytaniu o dobór opon do samochodu Gemini nie tylko przedstawi specyfikacje, lecz także — jeśli użytkownik wyrazi zgodę — zidentyfikuje model auta na podstawie wiadomości w Gmailu, sprawdzi rozmiary opon na zdjęciach oraz weźmie pod uwagę zwyczaje związane z podróżami. Podobnie przy planowaniu wycieczki asystent może przejrzeć poprzednie maile podróżne, zapisane miejsca i zdjęcia, by polecić miejsca zgodne z prawdziwymi zainteresowaniami użytkownika, a nie wyłącznie popularnymi atrakcjami.
Personal Intelligence działa multimodalnie: łączy tekst, obrazy i wideo. Przykładowo, może odczytać numer rejestracyjny z fotografii, potwierdzić wersję wyposażenia na podstawie paragonu przesłanego e‑mailem i zestawić to z wynikami wyszukiwania, prezentując spójną odpowiedź w jednym komunikacie.
Funkcja jest wyłączona domyślnie — to użytkownik decyduje, które aplikacje połączyć, i może je w dowolnym momencie odłączyć. Dodatkowo istnieje możliwość uzyskiwania odpowiedzi bez personalizacji. Gemini stara się też wskazywać, skąd pochodzi wykorzystana informacja, aby użytkownik mógł zweryfikować źródła odpowiedzi.
Google podkreśla, że dane z Gmaila czy Zdjęć nie służą do trenowania modelu. Są one cytowane jedynie w celu udzielenia odpowiedzi; procesy treningowe skupiają się na parach polecenie — odpowiedź, a dane osobowe są filtrowane lub zniekształcane (obfuskowane) przed dalszym użyciem w szkoleniu.
Firma otwarcie przyznaje, że funkcja nie jest pozbawiona wad: Gemini może czasem przesadnie personalizować odpowiedzi, mylić kolejność zdarzeń czy błędnie interpretować relacje (np. błędnie zakładać, że ktoś aktywnie uprawia dany sport, zamiast być jedynie jego kibicem). Google zachęca użytkowników do korekt, gdy model się pomyli.
Personal Intelligence udostępniana jest etapami. Funkcja zaczyna pojawiać się w becie, a od 14 stycznia będzie stopniowo udostępniana subskrybentom Google AI Pro i AI Ultra w USA. Będzie działać w przeglądarce, na Androidzie i iOS, a wkrótce ma pojawić się także w trybie AI w Wyszukiwarce. Na razie jest dostępna jedynie dla kont osobistych — nie dla użytkowników Workspace.