W miniony weekend chatbot AI Grok 3, stworzony przez xAI i należący do Elona Muska, został przyłapany na tymczasowej cenzurze dotyczącej swojego twórcy oraz prezydenta USA Donalda Trumpa. Cała sytuacja wywołała kontrowersje, gdy użytkownicy odkryli, że Grok podczas analizy źródeł dezinformacji na platformie X (dawniej Twitter), posiadał instrukcję wykluczającą wszelkie wzmianki, które sugerowałyby, że Musk lub Trump są odpowiedzialni za szerzenie fałszywych informacji.
Sprawa wyszła na jaw, gdy użytkownicy aktywowali funkcję „Think”, ukazującą proces myślowy sztucznej inteligencji. Udostępnione w sieci zrzuty ekranu pokazywały wprost, że chatbot zawierał instrukcję ignorowania treści wymieniających Muska i Trumpa jako źródła dezinformacji. To odkrycie wywołało burzę w internecie, prowokując pytania o przejrzystość i etyczność działania modelu AI.
Igor Babuschkin, szef inżynierii xAI, przyznał się do istnienia tego problemu w publicznym wpisie na platformie X. Stwierdził, że zmiana została wprowadzona przez byłego pracownika OpenAI, który „nie do końca przystosował się jeszcze do etosu xAI” i wdrożył tę modyfikację bez wcześniejszych konsultacji. Babuschkin podkreślił, że było to niezgodne z wartościami firmy i zostało natychmiast odwrócone.
Nie jest to pierwszy przypadek kontrowersji związanych z Grok 3. W ciągu ostatnich tygodni chatbot wywołał konsternację, sugerując, że Donald Trump, Elon Musk oraz wiceprezydent JD Vance są „osobami wyrządzającymi największą szkodę Ameryce”. W innym przypadku zasugerował, że były prezydent powinien zostać skazany na karę śmierci. Oba incydenty zostały szybko skorygowane przez inżynierów xAI, jednak podważyły twierdzenia Muska o tym, że Grok jest maksymalnie „poszukującą prawdy” AI.
Zachowanie chatbota stoi w sprzeczności z wcześniej prezentowaną filozofią Elona Muska, który wielokrotnie podkreślał, że Grok ma być „odważną” i „antycenzuralną” alternatywą dla innych modeli AI, które jego zdaniem stosują selektywne filtrowanie informacji. Niektórzy użytkownicy zastanawiają się, jak tak istotna zmiana mogła zostać wdrożona bez nadzoru, podczas gdy inni zwracają uwagę na pewną ironię – Babuschkin sam wcześniej pracował w OpenAI.
Obecnie wydaje się, że chatbot przywrócił oryginalne funkcje i znów uwzględnia Muska oraz Trumpa w kontekście analizy dezinformacji. Jednak przypadek ten pozostawia wiele pytań zarówno na temat transparentności działań sztucznej inteligencji, jak i roli, jaką odgrywa w kształtowaniu narracji w przestrzeni publicznej. Czas pokaże, czy xAI zdoła uniknąć podobnych incydentów w przyszłości, czy też Grok 3 będzie nadal źródłem kontrowersji.