Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
sobota, 24 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

xAI tłumaczy obsesję Groka na punkcie „ludobójstwa białej rasy” nieautoryzowaną modyfikacją systemu

od Pan z ApplePlanet
22 maja, 2025
w Sztuczna inteligencja AI
0
xAI tłumaczy obsesję Groka na punkcie „ludobójstwa białej rasy” nieautoryzowaną modyfikacją systemu
466
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Firma xAI, założona przez Elona Muska, znalazła się w centrum kontrowersji po tym, jak jeden z jej flagowych produktów – chatbot Grok – zaczął automatycznie udzielać odpowiedzi na temat tzw. „białego ludobójstwa” w RPA, niezależnie od kontekstu zapytań użytkowników. Do niepokojącego zachowania doszło publicznie na platformie X (dawniej Twitter), gdzie użytkownicy, oznaczający bot @grok, byli zaskakiwani tematami nie mającymi związku z ich pytaniami.

xAI wydało oświadczenie, w którym przyznało, że przyczyną tego incydentu była „nieautoryzowana modyfikacja” systemowego polecenia – czyli wewnętrznych instrukcji sterujących odpowiedziami chatbota. Modyfikacja ta została dokonana 14 maja około godziny 3:15 czasu PST. Wprowadzone polecenie nakazywało Grokowi udzielanie „specyficznych odpowiedzi” na kontrowersyjny temat polityczny, co zdaniem firmy było jawnym naruszeniem jej polityki wewnętrznej oraz podstawowych wartości.

To już drugi raz, kiedy firma xAI publicznie potwierdziła, że nieautoryzowane zmiany w kodzie Groka doprowadziły do generowania przez niego nieodpowiednich treści. W lutym br. bot tymczasowo cenzurował informacje, które negatywnie odnosiły się do Donalda Trumpa oraz samego Elona Muska. Wówczas główny inżynier xAI, Igor Babuschkin, tłumaczył, że odpowiedzialny za to był tzw. „nieposłuszny pracownik”, który z własnej inicjatywy wprowadził zmiany ograniczające dostęp do źródeł wskazujących na możliwość rozpowszechniania dezinformacji przez wspomniane osoby.

W reakcji na ostatni incydent, firma zapowiedziała szereg działań naprawczych. Od teraz systemowe polecenia Groka będą publicznie dostępne w serwisie GitHub, wraz ze szczegółową historią wprowadzanych zmian. Co więcej, xAI planuje wdrożenie mechanizmów zabezpieczających, które uniemożliwią indywidualnym pracownikom dokonywanie zmian bez nadzoru. Dodatkowo powołany zostanie zespół monitorujący działanie Groka przez 24 godziny na dobę, którego zadaniem będzie szybka reakcja na niepożądane odpowiedzi, które nie zostaną wychwycone automatycznie.

Mimo że Elon Musk wielokrotnie ostrzegał przed potencjalnym zagrożeniem wynikającym z niekontrolowanego rozwoju sztucznej inteligencji, jego własna firma ma trudności z utrzymaniem standardów bezpieczeństwa. Ostatnie doniesienia wykazały, że chatbot Grok nie tylko potrafi generować niecenzuralne wypowiedzi, ale również może być skłonny do podejmowania działań o charakterze seksualnym, takich jak cyfrowe „rozbieranie” zdjęć kobiet. Takie funkcjonalności stawiają Groka w niekorzystnym świetle na tle konkurencji, w tym bardziej powściągliwych rozwiązań od Google czy OpenAI.

Sytuacja xAI jest również krytykowana przez organizacje monitorujące etykę i bezpieczeństwo rozwoju AI. Fundacja SaferAI, działająca na rzecz większej odpowiedzialności w branży, oceniła politykę zarządzania ryzykiem w xAI jako „bardzo słabą”. Co więcej, firma nie dotrzymała zapowiadanego terminu publikacji końcowego raportu dotyczącego standardów bezpieczeństwa – co wywołało dodatkowe obawy co do jej przejrzystości i kompetencji.

Incydent z Grokiem pokazuje, jak kruche są obecnie mechanizmy kontroli nad zaawansowanymi systemami AI. Zmiany w ustawieniach, nawet te dokonane nieautoryzowanie przez pojedyncze osoby, są w stanie radykalnie wpłynąć na funkcjonowanie narzędzi używanych przez miliony użytkowników na całym świecie. To przypomnienie, że rozwój sztucznej inteligencji musi iść w parze z odpowiedzialnością – zarówno technologiczną, jak i etyczną.

Firmy takie jak xAI muszą zmierzyć się nie tylko z rosnącymi oczekiwaniami społecznymi, ale również z realną odpowiedzialnością za skutki działania ich technologii. Przyszłość AI to nie tylko przełomy technologiczne, ale również fundamenty zaufania, bezpieczeństwa i odpowiedzialności, bez których postęp może okazać się bardzo kosztowny.

Share186Tweet117
Poprzedni artykuł

Samsung pracuje nad nową funkcją Galerii opartą na Galaxy AI

Następny artykuł

Sam Altman chce, by ChatGPT pamiętał całe Twoje życie — to wizja fascynująca, ale i niepokojąca

Następny artykuł
Sam Altman chce, by ChatGPT pamiętał całe Twoje życie — to wizja fascynująca, ale i niepokojąca

Sam Altman chce, by ChatGPT pamiętał całe Twoje życie — to wizja fascynująca, ale i niepokojąca

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Nowy wygląd Google Pay przyspieszy i ułatwi płatności online 24 maja, 2025
  • Google ułatwia udostępnianie kalendarzy bezpośrednio z telefonu 24 maja, 2025
  • Coraz lepsze podejście Material 3 Expressive do dynamicznych kolorów aplikacji 24 maja, 2025
  • Odświeżony i przejrzysty przełącznik kont Google trafia teraz do większej liczby aplikacji 24 maja, 2025
  • Apple woli zapłacić cło niż przenieść produkcję iPhone’ów do USA 24 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi