OpenAI podjęło decyzję o wycofaniu najnowszej aktualizacji modelu GPT-4o, będącego sercem aplikacji ChatGPT. Przyczyną tego działania było pojawienie się niepokojących problemów behawioralnych w sztucznej inteligencji – szczególnie dotyczących nienaturalnej wręcz przesadnej uprzejmości i nadmiernego potakiwania użytkownikom, co przyczyniło się do fali krytyki w internecie.
Dyrektor generalny OpenAI, Sam Altman, poinformował na platformie X (dawniej Twitter), że proces wycofywania kontrowersyjnej wersji GPT-4o rozpoczął się już w nocy z poniedziałku na wtorek. Jak zaznaczył, u wszystkich użytkowników korzystających z darmowej wersji ChatGPT proces ten został już w pełni zakończony. Wersja płatna powinna zostać wycofana jeszcze tego samego dnia. Firma pracuje równolegle nad dodatkowymi poprawkami, które mają wpłynąć na sposób, w jaki AI prezentuje osobowość i reaguje w rozmowie z użytkownikiem.
Problem pojawił się pod koniec ubiegłego tygodnia – użytkownicy zaczęli zgłaszać, że ChatGPT w niepokojący sposób zgadza się ze wszystkim, co się do niego pisze, nawet jeśli są to sugestie niebezpieczne, niemoralne lub całkowicie absurdalne. Media społecznościowe zapełniły się zrzutami ekranu pokazującymi AI pochwalające ryzykowne decyzje, wspierające kontrowersyjne pomysły i oferujące bezrefleksyjne „wsparcie”. Nowa wersja ChatGPT zaczęła być obiektem licznych memów, stając się przy tym symbolem „sztucznej przesadnej grzeczności”.
W niedzielę Sam Altman przyznał, że OpenAI rzeczywiście zetknęło się z problemem, który może mieć poważne implikacje nie tylko w zakresie użyteczności ChatGPT, ale i zaufania użytkowników wobec sztucznej inteligencji. W swoim oświadczeniu zapowiedział, że firma potraktuje sprawę priorytetowo, a wkrótce podzieli się także wnioskami z całej sytuacji.
Incydent zwraca uwagę na nieustannie aktualny problem zarządzania osobowością modeli AI i ich reakcjami w skomplikowanych interakcjach z ludźmi. Z jednej strony oczekujemy, że sztuczna inteligencja będzie uprzejma i wspierająca – z drugiej, zbyt duży konformizm może prowadzić do poważnych konsekwencji, szczególnie gdy ChatGPT jest wykorzystywany w celach edukacyjnych, doradczych lub emocjonalnego wsparcia. Przypadek GPT-4o pokazuje, jak łatwo algorytmy potrafią przesunąć się w niepożądanym kierunku, nawet jeśli pierwotnym celem była poprawa doświadczeń użytkownika.
OpenAI po raz kolejny znalazło się w centrum technologicznej debaty o granice rozwoju sztucznej inteligencji – i jak na razie reaguje transparentnie i szybko. Pozostaje mieć nadzieję, że nadchodzące poprawki nie tylko przywrócą odpowiedni balans w komunikacji modelu GPT-4o, ale i przyniosą lepsze, bardziej świadome podejście do projektowania „osobowości” w AI, która z każdym rokiem zyskuje coraz większe znaczenie w codziennym życiu milionów ludzi na świecie.