Już w przyszłym tygodniu Google udostępni swoje zaawansowane narzędzie oparte na sztucznej inteligencji — chatbot Gemini — dzieciom poniżej 13. roku życia, które korzystają z kont zarządzanych przez rodziców. Jest to ważna zmiana w podejściu firmy do młodszej grupy użytkowników technologii, bo choć do tej pory dostęp do AI był ograniczony głównie do nastolatków i dorosłych, teraz najmłodsi użytkownicy cyfrowego świata również będą mogli korzystać z dobrodziejstw sztucznej inteligencji — oczywiście pod ścisłą kontrolą swoich opiekunów.
Dostęp do Gemini będzie możliwy za pośrednictwem usługi Google Family Link, która pozwala rodzicom zarządzać aktywnością swoich dzieci w środowisku Google. W ramach tej platformy opiekunowie mają wgląd w to, z jakich aplikacji korzysta dziecko, kontrolują czas spędzony przed ekranem i decydują o tym, co może być dla niego dostępne. Wprowadzenie Gemini do tej usługi oznacza, że Google zaczyna traktować młodsze pokolenie jako pełnoprawnych uczestników cyfrowej rewolucji, ale z zachowaniem ostrożności i odpowiednich zabezpieczeń. Firma zapewnia, że korzystanie przez dzieci z AI nie będzie wykorzystywane do trenowania modeli językowych, co oznacza, że prywatność młodych użytkowników pozostanie nienaruszona.
Choć krok ten może wydawać się przełomowy, budzi również mieszane uczucia. Sektor technologiczny intensywnie pracuje nad tym, aby zdobyć uwagę najmłodszych pokoleń, które wychowują się w świecie online — dynamicznym, immersyjnym i coraz bardziej uzależnionym od AI. Jednak pomimo wysokich ambicji twórców chatbotów, trzeba pamiętać, że obecne modele sztucznej inteligencji wciąż nie są pozbawione błędów, a ich odpowiedzi bywają niepełne, niejasne lub wręcz wprowadzające w błąd. W związku z tym kwestia odpowiedzialności za treści prezentowane dzieciom przez AI staje się priorytetem dla firm technologicznych i organizacji międzynarodowych.
Już pod koniec zeszłego roku UNESCO opublikowało apel do rządów państw na całym świecie, by wprowadziły jasne regulacje dotyczące stosowania generatywnej sztucznej inteligencji w edukacji. W dokumencie tym wskazano na konieczność ustalania limitów wiekowych, opracowania szczegółowych zasad ochrony prywatności i odpowiedniego nadzoru nad danymi użytkowników. Podkreślano również, że AI nie jest jeszcze gotowa, by być samodzielnym narzędziem dydaktycznym dla dzieci i młodzieży, a jej wpływ na psychikę i rozwój młodych użytkowników musi być dokładnie analizowany.
Rozszerzenie dostępu do takich technologii jak Gemini to z jednej strony znaczny krok naprzód w adaptacji AI w życiu codziennym i edukacji, jednak z drugiej — wymaga wyjątkowej ostrożności, odpowiedzialności i transparentności ze strony twórców systemów AI. Google deklaruje, że zastosowało w chatbotach specjalne zabezpieczenia przeznaczone dla młodszych użytkowników, jednak czas pokaże, czy będą one wystarczające, by ustrzec dzieci przed potencjalnie niebezpiecznymi treściami czy błędami w komunikacji z AI.
Rozwój sztucznej inteligencji stawia przed społeczeństwem nowe wyzwania, zwłaszcza jeśli chodzi o bezpieczeństwo i dobro dzieci. Wprowadzenie Gemini dla użytkowników poniżej 13. roku życia może oznaczać początek nowej ery domowego kontaktu dzieci z AI, ale także otwiera pole do szerokiej dyskusji na temat etyki, regulacji i odpowiedzialności technologicznych gigantów.