Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
poniedziałek, 9 czerwca, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Google rewolucjonizuje ranking odpowiedzi AI, angażując niezaznajomionych ekspertów

od Pan z ApplePlanet
20 grudnia, 2024
w Sztuczna inteligencja AI
0
Google rewolucjonizuje ranking odpowiedzi AI, angażując niezaznajomionych ekspertów
465
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Sztuczna inteligencja generatywna może wydawać się magią, ale za kulisami jej rozwoju kryją się ogromne zespoły pracowników w firmach takich jak Google czy OpenAI. To specjaliści znani jako „inżynierowie promptów” i analitycy, którym powierza się zadanie oceniania dokładności odpowiedzi generowanych przez chatboty. Ich praca przyczynia się do ciągłego doskonalenia systemów opartych na sztucznej inteligencji.

Jednak nowe wytyczne wewnętrzne wprowadzone w Google, dotyczące projektu sztucznej inteligencji o nazwie Gemini, budzą obawy związane z potencjalnym zwiększeniem liczby nieścisłości w odpowiedziach udzielanych wrażliwych dziedzinach, takich jak zdrowie. Nowe zasady pracy, które wyciekły w dokumentach wewnętrznych, wskazują na to, że system może być mniej wiarygodny przy udzielaniu odpowiedzi na pytania o wysokim poziomie technicznej złożoności.

W dążeniu do poprawy Gemini, zespół współpracowników firmy outsourcingowej GlobalLogic, należącej do koncernu Hitachi, regularnie ocenia odpowiedzi generowane przez SI. Kluczowym kryterium tej oceny jest “prawdomówność” systemu, a pracownicy do niedawna mieli możliwość pomijania oceny odpowiedzi, które wykraczały poza ich specjalistyczną wiedzę. Dla przykładu, osoba bez wykształcenia medycznego mogła pominąć pytania dotyczące kardiologii.

Jednak w ubiegłym tygodniu GlobalLogic poinformowało o wprowadzeniu zmiany w wytycznych Google. Nowe reguły zabraniają pracownikom pomijania takich zadań, niezależnie od ich poziomu wiedzy w danym obszarze. Teraz pracownicy muszą oceniać każdą odpowiedź na podstawie fragmentów, które rozumieją, i zaznaczać w notatkach, że nie mają wystarczającej wiedzy specjalistycznej, aby ocenić resztę.

Zmiana ta spotkała się z krytyką, zwłaszcza w kontekście oceny wysoce technicznych odpowiedzi AI na tematy takie jak rzadkie choroby, gdzie brak odpowiedniego przygotowania może wprowadzić ryzyko błędnych ocen. „Miałem wrażenie, że możliwość pomijania miała służyć zwiększeniu dokładności przez przekazanie zadania komuś lepiej wykwalifikowanemu?” – zauważył jeden z pracowników w wewnętrznej korespondencji.

Aktualnie pracownicy mogą pominąć ocenę odpowiedzi jedynie w dwóch przypadkach: jeśli brak jest kluczowych informacji, takich jak pełna treść pytania lub odpowiedzi, albo jeśli zadanie zawiera szkodliwe treści wymagające specjalnych zgód na ich ocenę. Dla wielu specjalistów nowe zasady oznaczają dodatkowe wyzwania związane z próbą zapewnienia rzetelności odpowiedzi sztucznej inteligencji w dziedzinach, w których brakuje im odpowiednich kwalifikacji.

Zmiany wywołały zaniepokojenie wśród ekspertów i analityków, którzy obawiają się, że szeroka interpretacja i brak specjalistycznej wiedzy mogą prowadzić do przekazywania użytkownikom błędnych informacji na kluczowe tematy, takie jak opieka zdrowotna czy nauka. Google do chwili obecnej nie wydało oficjalnego komentarza w tej sprawie.

Poruszona kwestia ukazuje złożoność rozwijania sztucznej inteligencji oraz wyzwania stojące przed jej twórcami. Wprowadzenie takich zmian jest istotnym przypomnieniem, że tworzenie technologii wspierającej ludzi wymaga nie tylko zaawansowanych algorytmów, ale także dostępu do odpowiednich kompetencji i ludzkiej wiedzy. Czy zmiany w podejściu do pracy z Gemini wpłyną pozytywnie na rozwój sztucznej inteligencji, czy też odbije się to na jej wiarygodności? Czas pokaże.

Share186Tweet116
Poprzedni artykuł

BlueQubit zdobywa 10 mln dolarów na rozwój oprogramowania kwantowego do praktycznych zastosowań

Następny artykuł

Badanie Anthropic ujawnia, że sztuczna inteligencja opiera się zmianie swoich poglądów

Następny artykuł
Badanie Anthropic ujawnia, że sztuczna inteligencja opiera się zmianie swoich poglądów

Badanie Anthropic ujawnia, że sztuczna inteligencja opiera się zmianie swoich poglądów

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Apple szykuje inteligentne okulary z AI – premiera planowana na 2026 rok 26 maja, 2025
  • Apple rezygnuje z planów wprowadzenia Apple Watcha z kamerą 26 maja, 2025
  • Apple planuje wielką modernizację aplikacji Kalendarz 26 maja, 2025
  • Tłumaczenie w czasie rzeczywistym w Google Meet ułatwia komunikację bez barier językowych 26 maja, 2025
  • Nowe funkcje Gmaila ułatwiają inteligentne odpowiadanie i szybkie planowanie wiadomości 26 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi