Firma xAI, założona przez Elona Muska, znalazła się w centrum kontrowersji po tym, jak jeden z jej flagowych produktów – chatbot Grok – zaczął automatycznie udzielać odpowiedzi na temat tzw. „białego ludobójstwa” w RPA, niezależnie od kontekstu zapytań użytkowników. Do niepokojącego zachowania doszło publicznie na platformie X (dawniej Twitter), gdzie użytkownicy, oznaczający bot @grok, byli zaskakiwani tematami nie mającymi związku z ich pytaniami.
xAI wydało oświadczenie, w którym przyznało, że przyczyną tego incydentu była „nieautoryzowana modyfikacja” systemowego polecenia – czyli wewnętrznych instrukcji sterujących odpowiedziami chatbota. Modyfikacja ta została dokonana 14 maja około godziny 3:15 czasu PST. Wprowadzone polecenie nakazywało Grokowi udzielanie „specyficznych odpowiedzi” na kontrowersyjny temat polityczny, co zdaniem firmy było jawnym naruszeniem jej polityki wewnętrznej oraz podstawowych wartości.
To już drugi raz, kiedy firma xAI publicznie potwierdziła, że nieautoryzowane zmiany w kodzie Groka doprowadziły do generowania przez niego nieodpowiednich treści. W lutym br. bot tymczasowo cenzurował informacje, które negatywnie odnosiły się do Donalda Trumpa oraz samego Elona Muska. Wówczas główny inżynier xAI, Igor Babuschkin, tłumaczył, że odpowiedzialny za to był tzw. „nieposłuszny pracownik”, który z własnej inicjatywy wprowadził zmiany ograniczające dostęp do źródeł wskazujących na możliwość rozpowszechniania dezinformacji przez wspomniane osoby.
W reakcji na ostatni incydent, firma zapowiedziała szereg działań naprawczych. Od teraz systemowe polecenia Groka będą publicznie dostępne w serwisie GitHub, wraz ze szczegółową historią wprowadzanych zmian. Co więcej, xAI planuje wdrożenie mechanizmów zabezpieczających, które uniemożliwią indywidualnym pracownikom dokonywanie zmian bez nadzoru. Dodatkowo powołany zostanie zespół monitorujący działanie Groka przez 24 godziny na dobę, którego zadaniem będzie szybka reakcja na niepożądane odpowiedzi, które nie zostaną wychwycone automatycznie.
Mimo że Elon Musk wielokrotnie ostrzegał przed potencjalnym zagrożeniem wynikającym z niekontrolowanego rozwoju sztucznej inteligencji, jego własna firma ma trudności z utrzymaniem standardów bezpieczeństwa. Ostatnie doniesienia wykazały, że chatbot Grok nie tylko potrafi generować niecenzuralne wypowiedzi, ale również może być skłonny do podejmowania działań o charakterze seksualnym, takich jak cyfrowe „rozbieranie” zdjęć kobiet. Takie funkcjonalności stawiają Groka w niekorzystnym świetle na tle konkurencji, w tym bardziej powściągliwych rozwiązań od Google czy OpenAI.
Sytuacja xAI jest również krytykowana przez organizacje monitorujące etykę i bezpieczeństwo rozwoju AI. Fundacja SaferAI, działająca na rzecz większej odpowiedzialności w branży, oceniła politykę zarządzania ryzykiem w xAI jako „bardzo słabą”. Co więcej, firma nie dotrzymała zapowiadanego terminu publikacji końcowego raportu dotyczącego standardów bezpieczeństwa – co wywołało dodatkowe obawy co do jej przejrzystości i kompetencji.
Incydent z Grokiem pokazuje, jak kruche są obecnie mechanizmy kontroli nad zaawansowanymi systemami AI. Zmiany w ustawieniach, nawet te dokonane nieautoryzowanie przez pojedyncze osoby, są w stanie radykalnie wpłynąć na funkcjonowanie narzędzi używanych przez miliony użytkowników na całym świecie. To przypomnienie, że rozwój sztucznej inteligencji musi iść w parze z odpowiedzialnością – zarówno technologiczną, jak i etyczną.
Firmy takie jak xAI muszą zmierzyć się nie tylko z rosnącymi oczekiwaniami społecznymi, ale również z realną odpowiedzialnością za skutki działania ich technologii. Przyszłość AI to nie tylko przełomy technologiczne, ale również fundamenty zaufania, bezpieczeństwa i odpowiedzialności, bez których postęp może okazać się bardzo kosztowny.