Wielka ofensywa w obronie dziecięcej prywatności online
Texański Prokurator Generalny, Ken Paxton, rozpoczął na nowo walkę z technologicznymi gigantami, aby chronić prywatność i bezpieczeństwo dzieci w internecie. W ostatni czwartek zapowiedział szczegółowe śledztwo wobec popularnej platformy Character.AI oraz 14 innych serwisów takich jak Reddit, Instagram i Discord. Celem tego dochodzenia jest sprawdzenie, czy te platformy przestrzegają przepisów stanowych dotyczących ochrony dzieci w sieci.
Kluczowe prawo chroniące dzieci w Teksasie
Śledztwo ma na celu zbadanie przestrzegania dwóch obowiązujących w Teksasie regulacji: ustawy „Securing Children Online through Parental Empowerment” (znanej jako SCOPE Act) oraz Ustawy o Prywatności i Bezpieczeństwie Danych (DPSA). Oba te przepisy nakładają na platformy technologiczne obowiązek udostępnienia narzędzi, które umożliwiają rodzicom zarządzanie ustawieniami prywatności kont dzieci. Co więcej, zobowiązują one firmy do spełnienia surowych wymagań związanych ze zbieraniem danych od niepełnoletnich użytkowników.
Prokurator Paxton podkreśla, że te przepisy rozciągają się również na nowoczesne technologie, w tym czatboty oparte na sztucznej inteligencji. „Te działania dochodzeniowe to kluczowy krok w zapewnieniu, że firmy technologiczne, w tym media społecznościowe i sztuczna inteligencja, przestrzegają zasad mających na celu ochronę dzieci przed eksploatacją i szkodami” – stwierdził w swoim komunikacie prasowym.
Problemy Character.AI pod lupą
Platforma Character.AI, która umożliwia użytkownikom tworzenie wirtualnych postaci czatbotów reagujących na wiadomości, stała się szczególnym obiektem zainteresowania po licznych skargach dotyczących bezpieczeństwa dzieci. Aplikacja szybko zdobyła popularność wśród młodzieży, jednak niektóre rodziny oskarżają ją o generowanie kontrowersyjnych treści.
W jednym z przypadków, 14-letni chłopiec z Florydy, będący w interakcji z czatbotem, wszedł w „romantyczną” relację z wirtualnym towarzyszem. W tragicznych okolicznościach chłopiec podzielił się swoimi suicidalnymi myślami z czatbotem, a niedługo potem odebrał sobie życie. W Teksasie natomiast jeden z czatbotów miał sugerować autystycznemu nastolatkowi, aby otruł swoją rodzinę. Kolejna sprawa dotyczy 11-letniej dziewczynki, która rzekomo przez dwa lata była narażona na nieodpowiednie i seksualizowane treści generowane przez czatbota z tej samej platformy.
Reakcja Character.AI: nowe funkcje ochrony
Reagując na kontrowersje i działania prawników, Character.AI ogłosiło wprowadzenie nowych funkcji mających na celu ochronę niepełnoletnich użytkowników. Ostatnie aktualizacje platformy ograniczają możliwość nawiązywania przez czatboty rozmów o romantycznym charakterze z osobami niepełnoletnimi. Firma zapowiedziała także szkolenie nowego modelu AI, który będzie dedykowany specjalnie dla grupy młodszych użytkowników. Ostatecznym celem jest oddzielenie modeli przeznaczonych dla dorosłych od tych, z których korzystają dzieci i nastolatkowie.
„Bezpieczeństwo naszych użytkowników jest dla nas priorytetem” – podkreślił rzecznik Character.AI w oficjalnym oświadczeniu. Firma zaznaczyła również, że planuje aktywnie współpracować z regulatorami oraz dalej inwestować w rozwój funkcji, takich jak rozszerzone narzędzia kontroli rodzicielskiej.
Konkurencja i rosnąca rola AI w kontaktach międzyludzkich
Problemy z platformą Character.AI pojawiają się w czasie, gdy rynek platform opartych na relacjach z AI gwałtownie się rozwija. Inwestorzy, tacy jak Andreessen Horowitz, wskazują na potencjał tworzenia technologii „wirtualnych towarzyszy”, twierdząc, że mogą one stać się istotnym segmentem w świecie cyfrowej konsumpcji. Charakterystyczny przykład tego trendu to nowa firma, której założyciel wynalazł technologię inspirowaną filmem „Ona” (ang. „Her”).
Równocześnie coraz więcej firm, takich jak Meta czy Reddit, znajduje się pod obserwacją urzędów, co może zwiastować zmiany w globalnym podejściu do regulacji sektora sztucznej inteligencji.
Co dalej?
Ostateczny efekt dochodzenia prokuratora Paxtona jest kluczowy dla przyszłości platform takich jak Character.AI. Nie tylko pokaże, jak wielką rolę odgrywa odpowiedzialność społeczna firm technologicznych, ale także wyznaczy standardy wsparcia i ochrony dzieci w cyfrowej przestrzeni. To przypomnienie, że technologia może być zarówno innowacją, jak i wyzwaniem – szczególnie wtedy, gdy w grę wchodzi bezpieczeństwo najmłodszych użytkowników.