Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
czwartek, 15 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Meta rozważa wstrzymanie prac nad systemami AI uznanymi za zbyt ryzykowne

od Pan z ApplePlanet
5 lutego, 2025
w Sztuczna inteligencja AI
0
Meta rozważa wstrzymanie prac nad systemami AI uznanymi za zbyt ryzykowne
466
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Dyrektor generalny Meta, Mark Zuckerberg, zadeklarował, że sztuczna inteligencja ogólna (AGI) – definiowana jako SI zdolna wykonywać każde zadanie, które może zrealizować człowiek – zostanie w przyszłości udostępniona publicznie. Jednak Meta przedstawiła w nowym dokumencie politycznym, nazwanym „Frontier AI Framework”, sytuacje, w których wysoce zaawansowane systemy SI stworzone wewnętrznie mogą nie zostać upublicznione.

W dokumencie tym Meta wyróżnia dwa typy systemów, które uważa za zbyt ryzykowne do udostępnienia: systemy „wysokiego ryzyka” oraz „krytycznego ryzyka”. Obie te klasy systemów, zgodnie z definicją Meta, mogą stanowić zagrożenie w kontekście cyberbezpieczeństwa, ataków chemicznych czy biologicznych. Różnica polega na potencjalnych skutkach – systemy „krytycznego ryzyka” mogą prowadzić do „katastrofalnych konsekwencji, które nie mogą zostać złagodzone w kontekście planowanego wdrożenia”. W przeciwieństwie do nich, systemy „wysokiego ryzyka” mogą jedynie ułatwiać ataki, ale nie są tak niezawodne czy niebezpieczne jak te z klasy „krytycznego ryzyka”.

Jakie rodzaje zagrożeń kryją się za tymi systemami? Meta podaje konkretne przykłady, takie jak „zautomatyzowane, kompleksowe przejęcie środowiska korporacyjnego chronionego zgodnie z najlepszymi praktykami” czy „rozpowszechnianie broni biologicznej o dużym zasięgu”. Lista potencjalnych katastrof przedstawionych w dokumencie nie jest wyczerpująca. Meta zaznacza jednak, że uwzględniono w niej sytuacje uznane za „najpilniejsze” oraz najbardziej prawdopodobne w wyniku upublicznienia potężnych systemów SI.

Zaskakującym elementem dokumentu jest podejście Meta do oceny tych systemów. Klasyfikacja ryzyka nie opiera się na żadnym jednolitym, empirycznym teście, lecz wynika z opinii zarówno wewnętrznych, jak i zewnętrznych ekspertów, które są weryfikowane przez „osoby decyzyjne na wyższych szczeblach”. Dlaczego wybrano właśnie taką metodę? Firma wyjaśnia, że obecna nauka nie oferuje jeszcze wystarczająco solidnych narzędzi do precyzyjnego określania ryzyka systemów SI w sposób ilościowy.

Jeśli Meta zaklasyfikuje system jako wysokiego ryzyka, dostęp do niego zostanie ograniczony wyłącznie do użytku wewnętrznego. Jego udostępnienie nie nastąpi, dopóki nie zostaną wdrożone środki ograniczające ryzyko do umiarkowanego poziomu. W przypadku systemów krytycznego ryzyka Meta deklaruje, że zastosuje nieokreślone zabezpieczenia, aby zapobiec ich przechwyceniu, a także wstrzyma rozwój takich systemów do czasu, aż staną się one mniej niebezpieczne.

„Frontier AI Framework” – jak podkreśla Meta – jest dokumentem, który będzie ewoluował w miarę zmieniającego się krajobrazu technologii SI. Publikacja tego dokumentu może być odpowiedzią na krytykę w kierunku strategii Meta, która zakłada otwartość w udostępnianiu technologii. Jest to podejście bardziej liberalne w porównaniu z firmami takimi jak OpenAI, które zabezpieczają swoje systemy poprzez ograniczenia dostępu i oferowanie ich jedynie przez interfejsy API.

Polityka „otwartej SI” przynosi Meta zarówno korzyści, jak i problemy. Rodzina modeli SI tej firmy, znana jako Llama, osiągnęła setki milionów pobrań. Z drugiej strony, Llama była już rzekomo wykorzystywana przez jednego z przeciwników USA do opracowania czatu obronnego. To pokazuje, jak łatwo potężne narzędzia SI mogą zostać wykorzystane do celów niezgodnych z pierwotnymi intencjami twórców.

Publikując swoją platformę Frontier AI Framework, Meta wydaje się również chcieć odróżnić się od chińskiej firmy DeepSeek. Ta ostatnia udostępnia swoje systemy w sposób równie otwarty, lecz nieraz wskazywano na brak odpowiednich zabezpieczeń, co może prowadzić do generowania toksycznych i szkodliwych treści.

„Uważamy, że poprzez uwzględnienie zarówno korzyści, jak i ryzyk w procesie podejmowania decyzji dotyczących rozwoju i wdrażania zaawansowanej SI, możliwe jest oddanie tej technologii społeczeństwu w sposób, który przynosi jej korzyści, jednocześnie zachowując odpowiedni poziom bezpieczeństwa” – czytamy w dokumencie Meta.

Share186Tweet117
Poprzedni artykuł

DeepSeek nie jest w pełni niecenzurowany, nawet gdy działa lokalnie

Następny artykuł

Najważniejsze trendy Open Source na rok 2025: Co będzie kluczowe?

Następny artykuł
Najważniejsze trendy Open Source na rok 2025: Co będzie kluczowe?

Najważniejsze trendy Open Source na rok 2025: Co będzie kluczowe?

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • OnePlus zapowiada dwa nowe telefony z serii Ace – poznaj zastosowane procesory 15 maja, 2025
  • Galaxy S25 Edge nagrywa filmy w formacie Log przednią kamerą – wkrótce aktualizacje dla innych modeli 15 maja, 2025
  • Nowe szczegóły na temat iPhone’a z całkowicie szklaną obudową od Apple 15 maja, 2025
  • Oppo ujawnia szczegóły dotyczące ekranu i baterii modelu Reno14 Pro 15 maja, 2025
  • Visa wykorzystuje sztuczną inteligencję, by uczynić płatności bardziej spersonalizowanymi i bezpiecznymi 15 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi