Apple nieustannie dąży do rozwoju swojego oprogramowania, a jednym z kluczowych obszarów, na które obecnie kładzie duży nacisk, jest rozszerzanie funkcji Siri w ramach zestawu funkcji Apple Intelligence. Aby przygotować się na nowe możliwości, firma zaczęła już udostępniać deweloperom interfejsy API App Intent, dzięki którym aplikacje będą w pełni gotowe na nadchodzące zmiany.
Nowe API dla deweloperów
Wraz z najnowszą falą wersji beta, Apple wprowadziło nowe API, które umożliwia deweloperom udostępnianie treści wyświetlanych w ich aplikacjach dla Siri oraz Apple Intelligence. To ogromny krok naprzód w kontekście integracji sztucznej inteligencji z codziennym użytkowaniem urządzeń Apple. Według dokumentacji Apple, gdy użytkownik zada pytanie dotyczące treści wyświetlanej na ekranie lub chce wykonać na niej konkretną akcję, Siri i Apple Intelligence będą mogły pobrać tę treść, aby odpowiedzieć na pytanie lub zrealizować żądaną akcję.
Przykładem takiej funkcjonalności może być sytuacja, w której użytkownik przegląda stronę internetową i zadaje pytanie: „Hej Siri, o czym jest ten dokument?”. Siri, dzięki integracji z Apple Intelligence, będzie mogła przekazać odpowiedź na podstawie analizowanej treści. Dodatkowo, jeśli użytkownik wyrazi na to zgodę, Siri i Apple Intelligence będą mogły przesyłać treści do obsługiwanych zewnętrznych usług, co otwiera ogromne możliwości dla deweloperów i użytkowników w zakresie automatyzacji i interakcji z treściami.
Integracja ChatGPT z Siri w iOS 18.2
W wersji beta iOS 18.2, Apple wprowadziło integrację ChatGPT z Siri, co pozwala użytkownikom zadawać pytania dotyczące zdjęć, dokumentów, takich jak pliki PDF czy prezentacje, i uzyskiwać na ich temat szczegółowe informacje. Przykładowo, można zapytać Siri: „Co jest na tym zdjęciu?”, a w odpowiedzi Siri wykonuje zrzut ekranu i przekazuje go do ChatGPT, który analizuje i wyjaśnia, co znajduje się na obrazie. Ta sama funkcjonalność działa w przypadku plików PDF i innych dokumentów.
Chociaż ta integracja z ChatGPT jest już dostępna w iOS 18.2, nie wydaje się, aby była to pełna realizacja planowanej przez Apple funkcji tzw. świadomości ekranu (onscreen awareness), która ma być kolejnym istotnym krokiem w rozwoju Siri. Świadomość ekranu to zdolność Siri do rozumienia treści wyświetlanych na ekranie i podejmowania na ich podstawie działań. Na przykład, jeśli ktoś wyśle Ci adres w wiadomości tekstowej, będziesz mógł powiedzieć: „Dodaj ten adres do jego karty kontaktowej”, a Siri automatycznie to wykona.
Przyszłość Siri i Apple Intelligence
Funkcje takie jak świadomość ekranu, kontekst osobisty oraz akcje wykonywane w aplikacjach są częścią szerszych planów Apple związanych z rozwojem Siri, jednak nie spodziewamy się ich zobaczyć w pełni zrealizowanych w najbliższym czasie. Wiele z tych funkcji zostanie wprowadzonych w przyszłych wersjach systemu iOS, prawdopodobnie w iOS 18.4, który według prognoz Marka Gurmana z Bloomberga ma być udostępniony wiosną 2025 roku.
Pomimo tego, że niektóre z bardziej zaawansowanych funkcji Siri pojawią się dopiero w przyszłym roku, Apple już teraz udostępnia deweloperom odpowiednie API, aby mieli oni wystarczająco dużo czasu na dostosowanie i przygotowanie swoich aplikacji. Dzięki tym działaniom, gdy nowe funkcjonalności zostaną wprowadzone do systemu, będą one gotowe do użycia przez użytkowników, a aplikacje będą w pełni z nimi zgodne.
Co to oznacza dla użytkowników?
Apple wyraźnie zmierza w kierunku bardziej zaawansowanej integracji sztucznej inteligencji z codziennym użytkowaniem swoich urządzeń. Siri, która do tej pory była ograniczona głównie do wykonywania prostych zadań, takich jak ustawianie alarmów czy odtwarzanie muzyki, zyska nowe, bardziej interaktywne i inteligentne możliwości. Integracja z Apple Intelligence pozwoli Siri na bardziej zaawansowane rozumienie kontekstu, co zwiększy jej przydatność w codziennych zadaniach, zwłaszcza w przypadku pracy z dokumentami, zdjęciami czy aplikacjami.
Użytkownicy mogą oczekiwać, że w nadchodzących latach Siri stanie się narzędziem jeszcze bardziej wszechstronnym, zdolnym do wykonywania złożonych operacji, a interakcja z nią będzie jeszcze bardziej intuicyjna i naturalna. To wszystko sprawia, że przyszłość cyfrowych asystentów głosowych w ekosystemie Apple rysuje się niezwykle obiecująco.