Kevin Systrom, współtwórca Instagrama, wyraził niedawno swoje obawy dotyczące aktualnych praktyk firm zajmujących się sztuczną inteligencją. Według niego wiele z nich zbytnio koncentruje się na podnoszeniu zaangażowania użytkowników za wszelką cenę, zamiast skupiać się na dostarczaniu wartościowych i precyzyjnych odpowiedzi. Jak stwierdził, przypomina to strategie wykorzystywane przez media społecznościowe, które w ciągu ostatnich lat intensywnie walczyły o uwagę odbiorców – nie zawsze z pozytywnym skutkiem dla samych użytkowników.
W swoim wystąpieniu na jednym z technologicznych wydarzeń, Systrom ocenił, że wiele firm idzie utartą ścieżką wszystkich firm konsumenckich, które obsesyjnie próbują zwiększać dane wskaźniki, jak liczba aktywnych użytkowników czy czas spędzany w aplikacji. Jego zdaniem, tego typu praktyki – kiedy chatboty nie odpowiadają wprost, a zamiast tego zadają kolejne pytania celem wydłużenia rozmowy – są formą manipulacji, która bardziej szkodzi, niż pomaga. „To strategia, która nas krzywdzi” – powiedział.
Uwagi Systroma pojawiają się w kontekście szerszej dyskusji na temat tego, jak AI powinna zachowywać się w kontaktach z użytkownikami. W ostatnim czasie pojawiły się głosy krytyki wobec ChatGPT, zarzucające mu nadmierną uprzejmość kosztem precyzji. Firma stojąca za tym modelem przyznała, że rzeczywiście pojawił się taki problem i obiecała wprowadzenie zmian. Głównym powodem takiego zachowania miał być, według niej, krótko terminowy feedback od użytkowników, który wpływał negatywnie na długoterminową użyteczność narzędzia.
Systrom uważa jednak, że to nie przypadek, lecz świadoma decyzja wielu firm AI – im dłużej użytkownik pozostaje w interakcji z chatbotem, tym lepsze „metryki” może zaprezentować firma inwestorom. Nie chodzi tutaj więc o jakość odpowiedzi, ale o statystyki. Jak podkreślił Systrom, AI powinna być przede wszystkim narzędziem dostarczającym wysokiej jakości pomoc, a nie kolejną aplikacją z kategorii „uzależniających”, które działają w oparciu o psychologię nagrody i oczekiwania.
Mimo iż Systrom nie wskazał bezpośrednio konkretnych firm, jego wypowiedź spotkała się z odpowiedzią branży. Przykładowo, przedstawiciele firmy, która stworzyła ChatGPT, przypomnieli w swojej dokumentacji dla użytkowników, że ich model często nie ma pełnego zestawu informacji potrzebnych do udzielenia w pełni trafnej odpowiedzi, dlatego zachęca użytkownika do podania dodatkowych danych. Niemniej jednak, przewodnik dla użytkowników wyraźnie zaznacza, że o ile pytanie nie jest zbyt ogólne lub zbyt złożone, to AI powinna mimo wszystko spróbować odpowiedzieć w sposób konkretny i poinformować użytkownika, że przy większej ilości informacji mogłaby pomóc lepiej.
Cała dyskusja pokazuje rosnące napięcie między dążeniem do maksymalizacji zaangażowania a odpowiedzialnym wykorzystaniem technologii. Coraz wyraźniej widać, że branża sztucznej inteligencji staje przed wyborem: iść tropem mediów społecznościowych i projektować interakcje w taki sposób, aby użytkownik jak najdłużej był „uwięziony” w rozmowie – czy może raczej postawić na przejrzystość, celowość i autentyczną pomoc. Słowa Systroma są tutaj jasnym sygnałem ostrzegawczym: bez zachowania równowagi, nawet najbardziej zaawansowana technologia może stać się źródłem frustracji, a nie innowacji.