Apple nieustannie przesuwa granice innowacji technologicznej, a najnowsze doniesienia wskazują, że firma pracuje nad zupełnie nową generacją urządzeń wyposażonych w kamerę – dotyczy to zarówno słuchawek AirPods, jak i zegarków Apple Watch. Premiera tych produktów planowana jest na około 2027 rok i już teraz wzbudza ogromne zainteresowanie dzięki swoim przełomowym funkcjom, opartym na przetwarzaniu wizualnym i integracji ze sztuczną inteligencją.
Jednym z najważniejszych elementów tego przełomu technologicznego są opracowywane specjalistyczne chipy. Dla Apple Watch opracowano układ czipowy nazwany „Nevis”, natomiast nowa generacja AirPods będzie prawdopodobnie napędzana przez chip o nazwie kodowej „Glennie”. Te mikrosystemy mają umożliwiać gromadzenie i interpretację danych wizualnych z zamontowanej na urządzeniach kamery, otwierając tym samym zupełnie nowy rozdział w interakcji między użytkownikiem a urządzeniem.
Wprowadzenie kamery do słuchawek AirPods ma znacznie głębszy cel niż tylko robienie zdjęć. Już teraz analitycy sugerują, że Apple zamierza zastosować kamery w podczerwieni (IR) w celu wzbogacenia funkcji związanych z przestrzennym dźwiękiem – co ma mieć szczególne znaczenie w połączeniu z zestawem Vision Pro oraz nadchodzącymi urządzeniami z rozszerzoną rzeczywistością. Dodatkowo technologia ta może umożliwić obsługę gestami, na przykład wykrywanie i rozpoznawanie ruchów dłoni w przestrzeni – bez konieczności dotykania powierzchni kontrolnej.
Apple Watch również ma zyskać zupełnie nową warstwę funkcjonalności dzięki zabudowanej kamerze. Jeden z rozważanych projektów zakłada zintegrowanie obiektywu w obrębie ekranu zegarka, a w przypadku wytrzymałej wersji Ultra – tuż przy koronce cyfrowej. Te kamerki nie miałyby jednak służyć do wykonywania zdjęć lub wideorozmów, takich jak FaceTime. Zamiast tego dostarczałyby dane wizualne systemowi sztucznej inteligencji działającemu bezpośrednio na urządzeniu, umożliwiając rozwój funkcji określanych przez Apple jako „Visual Intelligence”.
Visual Intelligence to kierunek, który zdaje się ukierunkowany na lepsze rozpoznawanie otoczenia użytkownika. Takie rozwiązania mogą mieć zastosowanie w takich usługach jak bardziej precyzyjne wskazówki nawigacyjne czy rozpoznawanie obiektów i miejsc w czasie rzeczywistym. Dzięki temu Apple Watch mógłby dostarczać użytkownikom spersonalizowanych informacji opartych na analizie ich najbliższego otoczenia.
Jednym z potencjalnych beneficjentów tych nowości jest rozwijająca się technologia rozszerzonej i mieszanej rzeczywistości, nad którą Apple pracuje od lat. Integracja kamer w urządzeniach tak codziennych jak słuchawki i zegarki, w połączeniu z przetwarzaniem danych lokalnie na chipie, może stanowić klucz do przenośnej i dyskretnej interakcji z wirtualnymi elementami otaczającego nas świata – bez potrzeby sięgania po telefon czy zakładania okularów AR.
Z dzisiejszej perspektywy widać wyraźnie, że Apple nie traktuje kamery jako osobnego komponentu służącego do dokumentowania chwil – jak to miało miejsce dotychczas. Zamiast tego, Cupertino dąży do wykorzystania obrazowania jako nowego zmysłu urządzeń osobistych, wspierającego użytkownika w rozumieniu i reagowaniu na otaczający świat. Jeśli harmonogram wdrożeń zostanie zachowany, pierwsze konsumenckie wersje AirPods i Apple Watch z kamerą mogą zadebiutować już za niecałe trzy lata, wynosząc nasze relacje z technologią na zupełnie nowy poziom.