Google zaprezentowało swój najnowszy, długo wyczekiwany flagowy model sztucznej inteligencji – Gemini 2.0 Pro Experimental. Premiera ta jest częścią szerszej inicjatywy obejmującej kilka nowych modeli AI. Równocześnie firma udostępniła użytkownikom aplikacji Gemini nową wersję swojego modelu do zaawansowanego rozumowania – Gemini 2.0 Flash Thinking.
Ogłoszenie to pojawia się w momencie, gdy branża technologiczna zaczyna coraz mocniej interesować się tańszymi modelami AI do rozumowania, oferowanymi przez chiński startup DeepSeek. Modele opracowane przez DeepSeek dorównują lub przewyższają możliwości najlepszych amerykańskich rozwiązań, oferując jednocześnie bardziej przystępne ceny dzięki udostępnieniu ich przez API.
Warto wspomnieć, że zarówno Google, jak i DeepSeek, zaprezentowały swoje modele AI do rozumowania pod koniec ubiegłego roku. Jednak to DeepSeek R1 przyciągnął znacznie większą uwagę, co może teraz skłaniać Google do intensywniejszej promocji swojego Gemini 2.0 Flash Thinking w popularnej aplikacji Gemini.
Jeśli chodzi o nowy model Gemini 2.0 Pro, jest on bezpośrednim następcą Gemini 1.5 Pro, który Google wypuściło na rynek w lutym ubiegłego roku. Firma zapowiada, że Gemini 2.0 Pro jest teraz wiodącym modelem w rodzinie Gemini AI i oferuje wyraźnie lepsze możliwości w zakresie kodowania oraz przetwarzania złożonych zapytań. Dzięki zaawansowanym funkcjom rozumienia kontekstu oraz zdolności do przetwarzania wiedzy o świecie, model ten ma przewyższać wszystkie dotychczasowe rozwiązania Google.
Co ciekawe, informacja o premierze nowego modelu pojawiła się w changelogu aplikacji Gemini już tydzień wcześniej, jednak dopiero teraz Google oficjalnie potwierdziło jego dostępność. Obecnie wersja eksperymentalna Gemini 2.0 Pro została udostępniona na platformach AI Google, takich jak Vertex AI oraz Google AI Studio. Można z niej również korzystać w ramach subskrypcji Gemini Advanced w aplikacji Gemini.
Nowy model oferuje użytkownikom obsługę narzędzi takich jak Google Search oraz możliwość wykonywania kodu na zlecenie użytkownika, co może znacznie usprawnić automatyzację i procesy analityczne. Co więcej, Gemini 2.0 Pro działa z imponującym oknem kontekstowym o wielkości 2 milionów tokenów, co pozwala mu na jednorazowe przetworzenie około 1,5 miliona słów. Dla zobrazowania – model ten mógłby przeanalizować całą serię książek o Harrym Potterze w pojedynczym zapytaniu i nadal miałby wolne miejsce na dodatkowe 400 tysięcy słów.
Jednocześnie Google ogłosiło szeroką dostępność modelu Gemini 2.0 Flash, który został po raz pierwszy zaprezentowany pod koniec ubiegłego roku. Od teraz wszyscy użytkownicy aplikacji Gemini mogą korzystać z tego modelu.
Aby skuteczniej konkurować z rosnącym zainteresowaniem modelami DeepSeek, Google przedstawiło także nową, bardziej ekonomiczną wersję swojej sztucznej inteligencji – Gemini 2.0 Flash-Lite. Nowy model, według Google, przewyższa możliwości Gemini 1.5 Flash, oferując jednocześnie tę samą prędkość działania i cenę.
Nowa generacja modeli AI od Google może znacząco wpłynąć na rynek sztucznej inteligencji, zwłaszcza w obszarze zaawansowanego rozumowania i przetwarzania dużych ilości danych. Pozostaje pytanie, czy te innowacje wystarczą, by skutecznie przeciwstawić się tańszym i równie wydajnym rozwiązaniom rozwijanym przez konkurencję.