Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
poniedziałek, 12 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Smartfony

Praktyczne testy: Nowe funkcje wideo i udostępniania ekranu w Gemini Live zwiększają jego przydatność

od Pan z ApplePlanet
26 marca, 2025
w Smartfony
0
Praktyczne testy: Nowe funkcje wideo i udostępniania ekranu w Gemini Live zwiększają jego przydatność
474
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Google wprowadza nowe funkcje Gemini Live – rozpoznawanie obrazu i udostępnianie ekranu

Google stopniowo rozszerza możliwości swojego asystenta opartego na sztucznej inteligencji. Początkowo Gemini Live ograniczał się do interakcji głosowych, co sprawiało, że jego funkcjonalność była dość podstawowa. Dzięki kolejnym aktualizacjom asystent stał się bardziej wszechstronny – potrafił analizować pliki, rozpoznawać obrazy i dostarczać dodatkowych informacji na temat filmów z YouTube. Teraz Google idzie o krok dalej, udostępniając kolejną aktualizację, dzięki której sztuczna inteligencja będzie mogła odpowiadać na pytania użytkownika na podstawie widoku z kamery smartfona lub treści wyświetlanych na ekranie urządzenia.

Nowe funkcje Gemini Live

Aktualizacja Gemini Live wprowadza dwie ważne nowości: tryb wideo na żywo oraz funkcję udostępniania ekranu. To wynik integracji technologii opracowanej w ramach Projektu Astra, czyli eksperymentalnego systemu AI Google reagującego w czasie rzeczywistym na otoczenie użytkownika. Pierwowzór tej koncepcji zaprezentowano już podczas konferencji Google I/O w ubiegłym roku, gdzie przedstawiono możliwości sztucznej inteligencji współpracującej zarówno ze smartfonem, jak i inteligentnymi okularami. Ostatecznie, niemal rok później, funkcjonalność ta trafia do użytkowników smartfonów z Androidem.

Jak działa udostępnianie ekranu w Gemini Live?

Po zainstalowaniu aktualizacji użytkownicy Gemini Live zobaczą nowy przycisk „Udostępnij ekran z Live” w interfejsie asystenta. Po jego naciśnięciu Google poprosi o zgodę na nagrywanie ekranu w celu przekazania treści do asystenta. Następnie można zadać Gemini dowolne pytanie dotyczące tego, co jest aktualnie wyświetlane, a AI udzieli najlepiej dopasowanej odpowiedzi.

W przypadku potrzeby można również przerywać odpowiedzi Gemini i zadawać kolejne pytania, niezależnie od tego, czy są one związane z aktualnie oglądanym materiałem. Aby zakończyć sesję udostępniania ekranu, wystarczy rozwinąć panel powiadomień i wybrać opcję „Zatrzymaj udostępnianie”.

Tryb rozpoznawania obrazu z kamery

Oprócz udostępniania ekranu użytkownicy mogą skorzystać także z trybu analizy obrazu na żywo. Aby go włączyć, wystarczy otworzyć interfejs Gemini Live i kliknąć ikonę aparatu w lewym dolnym rogu ekranu. Spowoduje to aktywację podglądu na żywo, dzięki któremu asystent AI będzie mógł analizować otoczenie w czasie rzeczywistym.

Jeśli użytkownik skieruje kamerę na dowolny obiekt i zada pytanie na jego temat, Gemini postara się udzielić odpowiedzi na podstawie posiadanej bazy wiedzy. Domyślnie aplikacja korzysta z tylnej kamery smartfona, jednak w razie potrzeby można przełączyć się na przedni aparat, używając ikonki w prawym dolnym rogu.

Kiedy nowa funkcja trafi do użytkowników?

Chociaż funkcje udostępniania ekranu i analizy obrazu na żywo pojawiły się już na wybranych urządzeniach, Google nie udostępniło ich jeszcze globalnie. Firma zapowiedziała, że w pierwszej kolejności trafią do subskrybentów Gemini Advanced, a następnie będą sukcesywnie wprowadzane na kolejne urządzenia.

To kolejny krok w stronę bardziej zaawansowanego wykorzystania sztucznej inteligencji w codziennym życiu. Możliwość zadawania pytań dotyczących otaczającego nas świata czy treści prezentowanych na ekranie smartfona może znacznie ułatwić zdobywanie informacji i interakcję z technologią. Czy te rozwiązania okażą się rewolucyjne? Przekonamy się w nadchodzących miesiącach.

Share190Tweet119
Poprzedni artykuł

Rywal Gemini, Perplexity, wprowadza jedną z najlepszych funkcji Androida

Następny artykuł

Czy OnePlus wprowadzi w końcu śledzenie cyklu menstruacyjnego w OnePlus Watch 3?

Następny artykuł
Czy OnePlus wprowadzi w końcu śledzenie cyklu menstruacyjnego w OnePlus Watch 3?

Czy OnePlus wprowadzi w końcu śledzenie cyklu menstruacyjnego w OnePlus Watch 3?

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Jak znaleźć zapisane wersje robocze na Facebooku 12 maja, 2025
  • Gemini dogania ChatGPT — nowa funkcja przesyłania wielu obrazów 12 maja, 2025
  • Nowe układy funkcji Circle to Search – Google już wprowadza jeden z nich 12 maja, 2025
  • Dlaczego wyszukiwanie na moim telefonie Pixel działa tak słabo, skoro Google to firma od wyszukiwania? 12 maja, 2025
  • Specyfikacja vivo X Fold5 wyciekła – potwierdzono nazwę nowego modelu 12 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi