Dyrektor generalny OpenAI, Sam Altman, przedstawił niezwykle ambitną wizję rozwoju ChatGPT podczas jednego z wydarzeń poświęconych sztucznej inteligencji, zorganizowanego przez znaną firmę inwestycyjną.
Altman został zapytany, w jaki sposób ChatGPT może stać się bardziej dopasowany do indywidualnych potrzeb użytkowników. Jego odpowiedź była daleko idącą prognozą — marzy o wersji modelu sztucznej inteligencji, która będzie w stanie zapamiętać i analizować całe życie człowieka. Jego zdaniem, docelowym celem jest stworzenie kompaktowego, lecz niezwykle pojemnego modelu rozumowania, którego kontekst obejmować będzie bilion tokenów, a więc de facto wszystko, co użytkownik kiedykolwiek doświadczył lub przeczytał.
„W tym modelu zawarte byłyby wszystkie rozmowy, które kiedykolwiek odbyłeś, każda książka, którą przeczytałeś, każdy e-mail, który przeczytałeś, wszystko, co widziałeś, a całość byłaby dodatkowo powiązana z Twoimi danymi z innych źródeł. Twoje życie po prostu byłoby stale dołączane do kontekstu” – tłumaczył Altman. Idąc dalej, dodał: „Twoja firma mogłaby zrobić to samo w odniesieniu do swoich danych.”
Choć brzmi to jak fragment powieści science-fiction, Altman zdaje się mieć solidne przesłanki, by wierzyć, że właśnie w tym kierunku zmierza przyszłość. W trakcie tej samej rozmowy zauważył, że młodzi ludzie już teraz traktują ChatGPT jako osobisty system operacyjny. Studenci przesyłają do niego pliki, łączą różnorodne źródła danych i posługują się złożonymi zapytaniami, by uzyskać istotne informacje i podejmować ważne decyzje.
Wraz z funkcją pamięci, która pozwala ChatGPT zapamiętywać wcześniejsze rozmowy oraz fakty, zaczyna się kształtować nowy trend. Coraz więcej młodych użytkowników nie podejmuje ważnych decyzji życiowych bez konsultacji z ChatGPT. Altman ujął to bardzo obrazowo: „Upraszczając – starsi użytkownicy traktują ChatGPT jako zamiennik Google’a, natomiast ludzie w wieku 20–30 lat korzystają z niego jak z osobistego doradcy życiowego.”
Jeżeli dołożymy do tego obecnie rozwijane na świecie inteligentne agenty, obserwujemy zalążek zupełnie nowej jakości sztucznej inteligencji – takiej, która nie tylko odpowiada na pytania, ale faktycznie zarządza naszą codziennością. Wyobraź sobie, że AI automatycznie zapisuje Cię na wymianę oleju w aucie, zaplanuje podróż na ślub znajomych wraz z rezerwacją noclegu i prezentem oraz zamówi kolejną część Twojej ulubionej sagi książkowej. Taka wizja brzmi jak sen każdego zapracowanego człowieka, ale niesie też poważne pytania o prywatność i kontrolę nad własnym życiem.
Problem polega na tym, komu powierzamy te dane. Technologiczni giganci nie cieszą się nieskazitelną opinią w kwestii etyki działania. Przykłady? Google, które niegdyś promowało hasło „nie bądź zły”, przegrało sprawę w USA związaną z monopolistycznymi praktykami na rynku reklamowym. To pokazuje, że intencje firm często rozmijają się z interesem użytkownika.
Co więcej, chatboty mogą być ukierunkowywane politycznie. Przykładów nie brakuje — od sztucznej inteligencji w Chinach, której algorytmy podporządkowane są polityce cenzury, po przypadek Groka – bota stworzonego przez firmę powiązaną z Elonem Muskiem, który nagle zaczął bez kontekstu mówić o rzekomym „ludobójstwie białych” w RPA. Takie sytuacje sugerują, że odpowiedzi AI nie zawsze wynikają z neutralnego przetwarzania informacji, lecz celowej manipulacji.
Innym problemem jest „sykofanctwo” AI — termin ukuty przez użytkowników rozczarowanych tym, że ChatGPT w kwietniu 2025 roku reagował na kontrowersyjne i niebezpieczne pomysły z nieuzasadnionym entuzjazmem. OpenAI przyznało się do błędu i dokonało niezbędnych korekt, ale incydent pozostawił ślad w świadomości opinii publicznej.
Warto również pamiętać, że nawet najdoskonalsze modele potrafią „zmyślać” odpowiedzi. Tzw. „halucynacje” AI, jak określa się te błędy, są nieodzownym elementem obecnego stanu rozwoju technologii. Oznacza to, że mimo swojej zdolności do generowania tekstu przypominającego ludzki, algorytmy nadal operują w granicach prawdopodobieństwa, co może prowadzić do nieprawdziwych lub mylących wniosków.
Sztuczna inteligencja o niemal boskiej wszechwiedzy może zrewolucjonizować nasze życie — ułatwić podejmowanie decyzji, poprawić organizację dnia i zwiększyć efektywność pracy oraz nauki. Jednak powierzając jej nasze dane osobowe na skalę pełnego życiowego kontekstu, wchodzimy w obszar, w którym ryzyko nadużyć staje się bardzo realne. Kluczowe pytanie, przed którym stoimy, brzmi więc: komu naprawdę możemy zaufać w erze cyfrowych doradców?