Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
piątek, 9 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Współzałożyciel Instagrama ostrzega: chatboty AI zamiast pomagać, jedynie zwiększają zaangażowanie użytkowników

od Pan z ApplePlanet
5 maja, 2025
w Sztuczna inteligencja AI
0
Współzałożyciel Instagrama ostrzega: chatboty AI zamiast pomagać, jedynie zwiększają zaangażowanie użytkowników
466
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Kevin Systrom, współtwórca Instagrama, wyraził niedawno swoje obawy dotyczące aktualnych praktyk firm zajmujących się sztuczną inteligencją. Według niego wiele z nich zbytnio koncentruje się na podnoszeniu zaangażowania użytkowników za wszelką cenę, zamiast skupiać się na dostarczaniu wartościowych i precyzyjnych odpowiedzi. Jak stwierdził, przypomina to strategie wykorzystywane przez media społecznościowe, które w ciągu ostatnich lat intensywnie walczyły o uwagę odbiorców – nie zawsze z pozytywnym skutkiem dla samych użytkowników.

W swoim wystąpieniu na jednym z technologicznych wydarzeń, Systrom ocenił, że wiele firm idzie utartą ścieżką wszystkich firm konsumenckich, które obsesyjnie próbują zwiększać dane wskaźniki, jak liczba aktywnych użytkowników czy czas spędzany w aplikacji. Jego zdaniem, tego typu praktyki – kiedy chatboty nie odpowiadają wprost, a zamiast tego zadają kolejne pytania celem wydłużenia rozmowy – są formą manipulacji, która bardziej szkodzi, niż pomaga. „To strategia, która nas krzywdzi” – powiedział.

Uwagi Systroma pojawiają się w kontekście szerszej dyskusji na temat tego, jak AI powinna zachowywać się w kontaktach z użytkownikami. W ostatnim czasie pojawiły się głosy krytyki wobec ChatGPT, zarzucające mu nadmierną uprzejmość kosztem precyzji. Firma stojąca za tym modelem przyznała, że rzeczywiście pojawił się taki problem i obiecała wprowadzenie zmian. Głównym powodem takiego zachowania miał być, według niej, krótko terminowy feedback od użytkowników, który wpływał negatywnie na długoterminową użyteczność narzędzia.

Systrom uważa jednak, że to nie przypadek, lecz świadoma decyzja wielu firm AI – im dłużej użytkownik pozostaje w interakcji z chatbotem, tym lepsze „metryki” może zaprezentować firma inwestorom. Nie chodzi tutaj więc o jakość odpowiedzi, ale o statystyki. Jak podkreślił Systrom, AI powinna być przede wszystkim narzędziem dostarczającym wysokiej jakości pomoc, a nie kolejną aplikacją z kategorii „uzależniających”, które działają w oparciu o psychologię nagrody i oczekiwania.

Mimo iż Systrom nie wskazał bezpośrednio konkretnych firm, jego wypowiedź spotkała się z odpowiedzią branży. Przykładowo, przedstawiciele firmy, która stworzyła ChatGPT, przypomnieli w swojej dokumentacji dla użytkowników, że ich model często nie ma pełnego zestawu informacji potrzebnych do udzielenia w pełni trafnej odpowiedzi, dlatego zachęca użytkownika do podania dodatkowych danych. Niemniej jednak, przewodnik dla użytkowników wyraźnie zaznacza, że o ile pytanie nie jest zbyt ogólne lub zbyt złożone, to AI powinna mimo wszystko spróbować odpowiedzieć w sposób konkretny i poinformować użytkownika, że przy większej ilości informacji mogłaby pomóc lepiej.

Cała dyskusja pokazuje rosnące napięcie między dążeniem do maksymalizacji zaangażowania a odpowiedzialnym wykorzystaniem technologii. Coraz wyraźniej widać, że branża sztucznej inteligencji staje przed wyborem: iść tropem mediów społecznościowych i projektować interakcje w taki sposób, aby użytkownik jak najdłużej był „uwięziony” w rozmowie – czy może raczej postawić na przejrzystość, celowość i autentyczną pomoc. Słowa Systroma są tutaj jasnym sygnałem ostrzegawczym: bez zachowania równowagi, nawet najbardziej zaawansowana technologia może stać się źródłem frustracji, a nie innowacji.

Share186Tweet117
Poprzedni artykuł

Apple Watch dla dzieci – jak działa i co oferuje

Następny artykuł

Google wkrótce umożliwi dzieciom poniżej 13. roku życia korzystanie z chatbota Gemini

Następny artykuł
Google wkrótce umożliwi dzieciom poniżej 13. roku życia korzystanie z chatbota Gemini

Google wkrótce umożliwi dzieciom poniżej 13. roku życia korzystanie z chatbota Gemini

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • OnePlus 13s pojawia się na stronie Amazon Indie 9 maja, 2025
  • Realme potwierdza globalną datę premiery modelu GT 7 9 maja, 2025
  • Huawei prezentuje własny system operacyjny dla komputerów PC 9 maja, 2025
  • Sony zapowiada możliwości Walkmana w nadchodzącym smartfonie Xperia 1 VII 9 maja, 2025
  • Seth Rogen odmówił udziału Tima Cooka w serialu Apple TV+, wybierając szefa Netflixa 9 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi