Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
niedziela, 8 czerwca, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

„Badacze ostrzegają: Narzędzie transkrypcyjne Whisper od OpenAI ma problemy z błędnymi interpretacjami”

od Pan z ApplePlanet
28 października, 2024
w Sztuczna inteligencja AI
0
"Badacze ostrzegają: Narzędzie transkrypcyjne Whisper od OpenAI ma problemy z błędnymi interpretacjami"
466
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Problemy z transkrypcją dźwięku w OpenAI Whisper – obawy inżynierów i badaczy

Inżynierowie oprogramowania, deweloperzy oraz badacze akademiccy wyrazili poważne obawy odnośnie systemu transkrypcji dźwięku Whisper, opracowanego przez OpenAI. Jak wynika z raportu Associated Press, system ten, pomimo swojego zaawansowania, nie jest wolny od błędów, które mogą mieć szerokie konsekwencje, szczególnie w kontekstach wymagających precyzji, takich jak służba zdrowia.

Generatywna AI i „halucynacje” – poważny problem w transkrypcji

Generatywna sztuczna inteligencja (AI) od dłuższego czasu boryka się z problemem tzw. „halucynacji”, czyli tworzeniem fikcyjnych informacji, które nie mają pokrycia w rzeczywistości. Tego typu błędy były szeroko omawiane w kontekście modeli językowych. Zaskakujące jest jednak to, że problem ten przenika również do systemów transkrypcji dźwięku, gdzie oczekuje się, że generowane teksty będą jak najbliższe oryginalnemu brzmieniu nagrań.

System Whisper, który miał za zadanie oferować dokładne transkrypcje audio, w rzeczywistości czasem dodaje do tekstu nieistniejące informacje – od komentarzy rasowych po wymyślone zalecenia medyczne. To szczególnie niepokojące, biorąc pod uwagę, że technologia ta zaczyna być stosowana w szpitalach i innych kontekstach medycznych, gdzie najmniejsze nieścisłości mogą prowadzić do poważnych konsekwencji.

Badania nad Whisper – jak często pojawiają się błędy?

Badacze z różnych dziedzin przeprowadzili szereg analiz, aby ocenić skalę problemu. Badacz z Uniwersytetu Michigan, który analizował transkrypcje z publicznych spotkań, stwierdził, że aż 8 na 10 transkrypcji zawierało „halucynacje”. Z kolei inżynier zajmujący się uczeniem maszynowym, po przeanalizowaniu ponad 100 godzin transkrypcji stworzonych przez Whisper, zauważył, że ponad połowa z nich zawierała błędy. Inny deweloper, który wygenerował 26 000 transkrypcji przy użyciu tego systemu, odnalazł „halucynacje” w niemal wszystkich z nich.

OpenAI odpowiada na krytykę

Rzecznik OpenAI, zapytany o te problemy, przyznał, że firma nieustannie pracuje nad poprawą dokładności swoich modeli, w tym redukowaniem „halucynacji”. Dodatkowo, wskazał, że polityki użytkowania Whispera zabraniają stosowania tej technologii w sytuacjach, które wymagają podejmowania decyzji o wysokiej stawce, takich jak konteksty medyczne.

„Dziękujemy badaczom za dzielenie się swoimi odkryciami” – dodał rzecznik, co sugeruje, że firma jest świadoma wyzwań, przed którymi stoi, i otwarta na współpracę z naukowcami w celu dalszego doskonalenia technologii.

Co dalej z Whisper?

Pomimo problemów, które zostały ukazane w badaniach, Whisper nadal ma szansę stać się ważnym narzędziem w obszarze transkrypcji dźwięku. Kluczem będzie dalsze usprawnianie technologii i unikanie jej użycia w obszarach, gdzie błędy mogą mieć poważne konsekwencje. Jak każde narzędzie bazujące na sztucznej inteligencji, system musi być starannie monitorowany i rozwijany, aby zapewnić maksymalną precyzję i bezpieczeństwo w zastosowaniach, które tego wymagają.

Dla użytkowników technologii AI, takich jak Whisper, powyższe przykłady mogą być ostrzeżeniem, aby podchodzić z ostrożnością do wyników generowanych przez te systemy – zwłaszcza w sytuacjach, gdzie nawet najmniejsza nieścisłość może prowadzić do poważnych konsekwencji.

Share186Tweet117
Poprzedni artykuł

„Arcade: Nowa platforma AI do tworzenia produktów zaprojektowała ten naszyjnik”

Następny artykuł

„Biały Dom apeluje o ochronę sztucznej inteligencji przed zagrożeniami ze strony obcych państw”

Następny artykuł
"Biały Dom apeluje o ochronę sztucznej inteligencji przed zagrożeniami ze strony obcych państw"

"Biały Dom apeluje o ochronę sztucznej inteligencji przed zagrożeniami ze strony obcych państw"

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Apple szykuje inteligentne okulary z AI – premiera planowana na 2026 rok 26 maja, 2025
  • Apple rezygnuje z planów wprowadzenia Apple Watcha z kamerą 26 maja, 2025
  • Apple planuje wielką modernizację aplikacji Kalendarz 26 maja, 2025
  • Tłumaczenie w czasie rzeczywistym w Google Meet ułatwia komunikację bez barier językowych 26 maja, 2025
  • Nowe funkcje Gmaila ułatwiają inteligentne odpowiadanie i szybkie planowanie wiadomości 26 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi