Nowe funkcje ochrony rodzicielskiej od Apple – co powinniśmy o nich wiedzieć?
Jakiś czas temu Apple ogłosiło wprowadzenie nowych zabezpieczeń, które mają zapewnić ochronę najmłodszych użytkowników. Nowe zabezpieczenia będą oferowane wraz z systemem iOS 15 i macOS Monterey. Co powinniśmy o nich wiedzieć? Czy mogą zagrozić naszej prywatności? Na te pytania znajdziesz odpowiedzi w poniższym artykule, więc zachęcamy do zapoznania się z jego treścią!
Nowe funkcje ochrony rodzicielskiej – co oferuje nam Apple?
Od zawsze wprowadzanie nowych zabezpieczeń budzi spore kontrowersje, więc nic dziwnego, że gdy mowa o kolejnych, to użytkownicy zaczynają snuć domysły. Jednak wystarczy sprawdzić, jakie funkcje oferuje Apple, by dojść do wniosku, że większość z nas niepotrzebnie się nakręcała. Do swojej dyspozycji mamy bowiem trzy nowe funkcje od Apple, których celem jest zwiększyć bezpieczeństwo dzieci w Internecie. Dlatego wśród nich znajdziemy między innymi skanowanie materiałów związanych z wykorzystywaniem seksualnym dzieci, dodatkowy protokół bezpieczeństwa w Wiadomościach, czy rozszerzone wskazówki dotyczące bezpieczeństwa w Siri i Wyszukiwaniu.
Skanowanie materiałów związanych z wykorzystywaniem seksualnym dzieci
Trzeba przyznać, że najwięcej kontrowersji wzbudziła funkcja, która pozwala na skanowanie materiałów związanych z wykorzystywaniem seksualnym dzieci. Dzięki niej firma Apple będzie mogła przeglądać zdjęcia, które użytkownicy przechowują w swoich iPhone’ach i sprawdzać, czy przypadkiem nie ma wśród nich materiałów związanych z pedofilią. Do tego celu będzie służył specjalnie opracowany system, który wykorzystuje kryptografię i to właśnie on będzie skanował obrazy na urządzeniu, nim te trafią do Zdjęć iCloud. Co więcej, wykona też porównanie z obrazami CSAM i jeśli system stwierdzi, że istnieje dopasowanie, to stworzy kryptograficzny kupon bezpieczeństwa, który następnie będzie przesyłany do usługi Zdjęcia iCloud wraz z obrazem. Efektem tego będzie też zgłoszenie przez Apple do National Center for Missing and Exploited Children. Tam zostaną zdjęcia sprawdzone i jeśli podejrzenia zostaną potwierdzone, to sprawa zostanie skierowana do organów ścigania.
Czy faktycznie ta funkcja powinna budzić nasze wątpliwości w kwestii prywatności? Raczej nie. Powody do zmartwień jedynie powinni mieć pedofile, ponieważ to właśnie w nich uderza nowa funkcjonalność od Apple. Poza tym powinniśmy też pamiętać, że Apple nie będzie mieć dostępu do zdjęć. Skanowaniem będzie zajmować się automat i prawdę mówiąc, to nasze zdjęcia w urządzeniach Apple już od dawna są skanowane, chociażby do tego, by rozpoznać obiekty na zdjęcia i ułatwić sobie wyszukiwanie w aplikacji Zdjęcia. Tym razem jednak podejrzane zdjęcia będą raportowane i szczerze to dobrze, bo w końcu chodzi o bezpieczeństwo dzieci, które z roku na rok staje się coraz bardziej zagrożone. Pora coś z tym zrobić i Apple daje świetny przykład innym firmom. Oczywiście nie należy martwić się tym, że będziemy robili zdjęcia swoim pociechom. Nikt nie pociągnie nas do odpowiedzialności za zrobienie zdjęcia własnemu dziecku w domowym basenie, czy na plaży. Jeśli mimo to funkcja będzie budzić wątpliwości dotyczące prywatności, to warto pamiętać, że w dowolnej chwili można wyłączyć usługę Zdjęcie iCloud, gdyż te, które przechowuje się tylko w telefonie, nie będą skanowane.
Protokoły bezpieczeństwa w Wiadomościach
Nową funkcją będą także protokoły bezpieczeństwa w aplikacji Wiadomości, czyli narzędzia, które będą ostrzegać dzieci oraz ich rodziców podczas wysyłania lub odbierania wiadomości, w których znajdą się zdjęcia o charakterze erotycznym. Aby aplikacja Wiadomości potrafiła dobrze ocenić, czy załącznik lub obraz mają charakter seksualny, będzie korzystać z systemów uczących się na urządzeniu. Apple nie będzie ingerować w treść wiadomość, ani obrazu. Co więcej, ta funkcja będzie działać jednakowo w przypadku wiadomości SMS, jak i iMessage.
A jak działa nowa funkcja?
Innego działania należy spodziewać się przy odbieraniu wiadomości, jak i przy ich wysyłaniu. W pierwszym przypadku jeśli wiadomość o charakterze erotycznym otrzyma nasze dziecko, to obraz zostanie zamazany i nie będzie go można zobaczyć. Dalsze działania systemu zależą od tego, ile dziecko ma lat. Jeśli nasze dziecko ma 12 lat lub mniej, to powiadomienie o podejrzanym zdjęciu trafi do nas i jeśli nie wyrazimy zgody na jego obejrzenie, to zdjęcie będzie dla niego niedostępne. Jeśli nasze dziecko ma od 13 do 17 lat, to nie będziemy powiadomieni, ale do dziecka trafi ostrzeżenie i zostanie wystosowane zapytanie, czy faktycznie chce zobaczyć zdjęcie o charakterze erotycznym.
W drugim przypadku mamy do czynienia z próbą wysłania zdjęć erotycznych. Jak tym razem zachowa się system? Jeśli nasze dziecko w wieku 12 lat lub mniej będzie chciało wysłać wiadomość o charakterze erotycznym, to zostanie ona wstrzymana, a my jako rodzice otrzymamy stosowane powiadomienie. Jeśli nasze dziecko ma od 13 do 17 lat, to system przed wysłaniem zdjęcie zapyta, czy faktycznie chce udostępnić komuś zdjęcie i jeśli potwierdzi, to wiadomość zostanie wysłana. W tym przypadku rodzice nie są powiadamiani, więc nie otrzymamy żadnych powiadomień.
Rozszerzone wskazówki w zakresie bezpieczeństwa w Siri i Wyszukiwaniu
Trzecia funkcja wiąże się z rozszerzeniem wskazówek dla Siri i dotyczą funkcji wyszukiwania. Wszystko po to, by pomóc dzieciom, jak i im rodzicom zachować bezpieczeństwo w sieci, czy nawet zapewnić wsparcie w niebezpiecznych sytuacjach. Świetnym tego przykładem jest możliwość zapytania Siri, w jaki sposób można zgłosić wykorzystywanie dzieci. Gdy padnie takie pytanie, to Siri zapewni dostęp do szczegółowych informacji, w tym również do tego, jakie władze należy powiadomić, czy jak złożyć zgłoszenie władzom. Dodatkowo usługi Siri oraz Wyszukiwanie będą monitorować zapytania dotyczące dziecięcej pornografii i jeśli użytkownik będzie chciał wyszukać w sieci tego typu treści, to otrzyma ostrzeżenie, że zainteresowanie nimi jest bardzo niebezpieczne, więc trzeba przyznać, że to wygląda całkiem ciekawie.