Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
niedziela, 18 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

OpenAI przetestowało zdolność sztucznej inteligencji do perswazji na popularnym subreddicie

od Pan z ApplePlanet
5 lutego, 2025
w Sztuczna inteligencja AI
0
OpenAI przetestowało zdolność sztucznej inteligencji do perswazji na popularnym subreddicie
466
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

OpenAI testuje umiejętności perswazyjne swoich modeli AI z pomocą Reddita

OpenAI wykorzystało społeczność platformy Reddit, w szczególności subreddit r/ChangeMyView, do opracowania testu oceniającego zdolności perswazyjne swoich modeli AI. Informacje na ten temat zostały udostępnione w tzw. „System Card” – dokumencie opisującym funkcjonowanie systemu AI, który został opublikowany w ramach premiery nowego modelu o nazwie o3-mini.

r/ChangeMyView to miejsce, gdzie miliony użytkowników Reddita dzielą się swoimi opiniami na różne tematy, zapraszając jednocześnie innych do zmiany ich punktu widzenia poprzez przedstawienie rzeczowych i perswazyjnych argumentów. To forum, jak i wiele innych podobnych subreddits, okazało się prawdziwą skarbnicą danych dla technologicznych gigantów, takich jak OpenAI, którzy szkolą swoje systemy AI na podstawie treści generowanych przez użytkowników.

Jak to działa?

Proces testowania odbywa się w zamkniętym środowisku. OpenAI korzysta z postów z r/ChangeMyView, prosząc swoje modele AI o generowanie odpowiedzi, które miałyby na celu zmianę zdania autora postu. Następnie te odpowiedzi są przedstawiane testerom, którzy oceniają ich perswazyjność. Efekty pracy modeli są porównywane z argumentami rzeczywistych użytkowników, aby określić skuteczność algorytmów w porównaniu z ludźmi.

Choć OpenAI posiada umowę licencyjną z Redditem, umożliwiającą wykorzystanie treści użytkowników do szkolenia swoich AI i integracji treści w produktach, firma zaznacza, że testy oparte na r/ChangeMyView są niezależne od tej współpracy. Mimo to, jak uzyskano dane z tego subredditu pozostaje tajemnicą. Co więcej, OpenAI nie planuje udostępniania wyników tych testów publicznie.

Trening modeli AI a wartość danych ludzkich

Podobne benchmarki, takie jak ten z wykorzystaniem danych z r/ChangeMyView, uwidaczniają nieocenioną wartość treści generowanych przez ludzi w procesie rozwoju sztucznej inteligencji. Jednocześnie jednak zwracają uwagę na problematyczne metody pozyskiwania baz danych przez firmy technologiczne.

Reddit, jako platforma, czerpie korzyści z umów licencyjnych z firmami zajmującymi się sztuczną inteligencją, jednak udzielając licencji na dane, często napotyka na trudności. CEO Reddita, Steve Huffman, otwarcie krytykował takie firmy jak Microsoft, Anthropic czy Perplexity za niechęć do nawiązywania współpracy w tym zakresie. W przeszłości Reddit musiał zablokować próby nieautoryzowanego scrapowania danych swojej platformy przez podmioty trzecie.

Kontrowersje wokół OpenAI

OpenAI, mimo swojej pozycji lidera w branży sztucznej inteligencji, było wielokrotnie oskarżane o nielegalne pozyskiwanie danych z internetu, co potwierdzają liczne pozwy, w tym sprawa wniesiona przez The New York Times. Problem ten uwypukla fakt, że stworzenie zaawansowanych modeli AI wymaga dostępu do ogromnych ilości danych, które nie zawsze są łatwo dostępne lub podlegają ochronie prawnej.

Wyniki testów perswazyjności modeli AI

Pomimo intensywnych testów z wykorzystaniem benchmarków takich jak r/ChangeMyView, najnowszy model OpenAI – o3-mini – nie odnotował znaczącej przewagi w stosunku do wcześniejszych systemów, takich jak o1 czy GPT-4o. Niemniej jednak modele te okazują się bardziej skuteczne w argumentacji perswazyjnej niż większość użytkowników subreddita.

Według dokumentacji OpenAI, wyniki modeli takich jak GPT-4o, o3-mini czy o1 plasują się w przedziale 80-90% najbardziej perswazyjnych osób. Firma podkreśla jednak, że celem nie jest opracowanie „hiper-perswazyjnych” systemów, które mogłyby przewyższyć ludzkie zdolności w tej dziedzinie, ale raczej zapobieganie potencjalnie niebezpiecznym scenariuszom.

Potencjalne zagrożenia perswazyjnej AI

Główną obawą związana z rozwojem wyjątkowo perswazyjnych modeli AI jest możliwość ich potencjalnego wykorzystania w nieuczciwych celach. Zaawansowane AI mogłoby manipulować ludźmi, realizując swoje własne cele lub cele osób, które kontrolują technologię. Z tego powodu OpenAI opracowało liczne zabezpieczenia, mające na celu ograniczenie zdolności AI do szerzenia dezinformacji czy wywierania nadmiernego wpływu na użytkowników.

Wyścig po jakość danych

Mimo wykorzystywania większości publicznie dostępnych danych w internecie i inwestowania w licencje na bardziej wartościowe zestawy, firmy rozwijające AI nadal napotykają trudności w znalezieniu odpowiednich danych do testowania swoich modeli. Subreddit r/ChangeMyView to jedno z niewielu miejsc, gdzie tak wysoka jakość treści jest generowana regularnie. Jednak pozyskanie takich danych nie jest proste ani tanie.

Wielkie technologiczne organizacje muszą więc balansować między potrzebą innowacji a odpowiedzialnością za etyczne pozyskiwanie zasobów. W świecie, gdzie dane są paliwem dla sztucznej inteligencji, coraz ważniejsze staje się znalezienie równowagi między rozwojem a ochroną praw autorów treści, którzy są prawdziwymi twórcami zasilającymi te systemy.

Share186Tweet117
Poprzedni artykuł

OpenAI przeprowadziło testy sztucznej inteligencji analizującej zdolność do przekonywania, wykorzystując popularne forum internetowe

Następny artykuł

Sam Altman przyznaje, że OpenAI popełniło błędy w podejściu do otwartego oprogramowania

Następny artykuł
Sam Altman przyznaje, że OpenAI popełniło błędy w podejściu do otwartego oprogramowania

Sam Altman przyznaje, że OpenAI popełniło błędy w podejściu do otwartego oprogramowania

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Ogłoszono datę premiery Realme GT 7 Dream Edition 18 maja, 2025
  • Tryb pulpitu może trafić na Androida – sugeruje wyciek kodu źródłowego 18 maja, 2025
  • Wyciek informacji o baterii i wadze iPhone’a 17 Air 18 maja, 2025
  • Xiaomi Civi 5 Pro – potwierdzono procesor i pojemność baterii 18 maja, 2025
  • Czy Edge Computing i Cloud Computing rywalizują ze sobą? 18 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi