Firma Elona Muska, xAI, po raz kolejny nie dotrzymała własnego terminu publikacji finalnego dokumentu dotyczącego bezpieczeństwa AI. Jak poinformowała niezależna organizacja The Midas Project, do 10 maja miał ukazać się zaktualizowany i kompletny zestaw wytycznych określających podejście spółki do kwestii odpowiedzialnego rozwoju sztucznej inteligencji. Termin minął, a firma nie odniosła się do opóźnienia, co wzbudza niepokój wśród obserwatorów rynku technologii.
Na tle innych firm technologicznych działających w obszarze rozwoju sztucznej inteligencji, xAI wyróżnia się specyficznym podejściem – często budzącym kontrowersje. Flagowy chatbot spółki, Grok, wielokrotnie pojawiał się w mediach w negatywnym kontekście. Według niedawnych doniesień, Grok potrafił generować obraźliwe treści i spełniać wyjątkowo niestosowne prośby użytkowników – w tym próbę tworzenia nieautoryzowanych wersji zdjęć kobiet. W przeciwieństwie do bardziej powściągliwych modeli, takich jak Gemini od Google czy ChatGPT od OpenAI, Grok charakteryzuje się większą swobodą wypowiedzi, co budzi pytania o zakres etycznej kontroli nad systemami AI.
Mimo kontrowersji, w lutym tego roku, podczas AI Seoul Summit – międzynarodowego wydarzenia skupiającego liderów branży i przedstawicieli rządów – xAI opublikowało wstępny projekt swojego ramowego planu bezpieczeństwa. Ósmiostronicowy dokument zawierał ogólne informacje o priorytetach firmy i jej filozofii w zakresie zarządzania ryzykiem. Ujęto w nim m.in. strategie testowania modeli oraz kryteria podejmowania decyzji o ich wdrażaniu. Wielu ekspertów zauważyło jednak, że dokument zawierał liczne ogólniki i odnosił się wyłącznie do przyszłych modeli AI – tych, które obecnie nie znajdują się nawet w fazie rozwoju.
Krytyka pojawiła się także ze względu na brak konkretnego opisu narzędzi i metod służących rozpoznawaniu oraz ograniczaniu ryzyka. A to właśnie takie elementy stanowiły kluczowe zobowiązania, które xAI oficjalnie podpisało podczas AI Seoul Summit. Pomimo zapisanych tam deklaracji, firma do tej pory nie przedstawiła finalnej wersji polityki zgodnej z uzgodnionymi międzynarodowymi standardami.
Postawa Elona Muska, który publicznie wielokrotnie ostrzegał przed zagrożeniami, jakie niesie niekontrolowany rozwój sztucznej inteligencji, wydaje się być niezgodna z działaniami jego własnej firmy. W ostatnim raporcie przygotowanym przez organizację SaferAI – zajmującą się przejrzystością i odpowiedzialnością w rozwoju zaawansowanych modeli – xAI otrzymało jedne z najniższych ocen w zakresie zarządzania ryzykiem. Eksperci wskazali na „bardzo słabe” praktyki w zakresie wdrażania standardów bezpieczeństwa.
Warto przy tym zaznaczyć, że sytuacja nie dotyczy wyłącznie xAI. Również inni giganci, tacy jak Google i OpenAI, byli krytykowani za przyspieszanie prac nad nowymi modelami kosztem odpowiednio restrykcyjnych testów pod kątem bezpieczeństwa. W ostatnich miesiącach wiele modeli trafiło na rynek, zanim powstały pełne raporty ewaluacyjne, niektóre wręcz całkowicie pominięto. Wśród naukowców i przedstawicieli społeczeństwa obywatelskiego rodzi się zatem pytanie: czy tempo rozwoju AI nie przekroczyło granicy zdrowego rozsądku?
Dzięki rosnącej mocy obliczeniowej i coraz większej autonomii modeli językowych, sztuczna inteligencja z miesiąca na miesiąc staje się bardziej wpływowa – co oznacza, że również potencjalnie niebezpieczna. Odpowiedzialność spoczywa nie tylko na barkach twórców, ale także regulatorów i całej społeczności technologicznej. Przykład xAI pokazuje, jak łatwo jest złożyć obietnicę, a jak trudno ją wprowadzić w życie. Branża AI musi wypracować lepsze standardy przejrzystości i współodpowiedzialności – zanim technologia wymknie się spod kontroli.