Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
niedziela, 11 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Nowy model Gemini AI od Google osiąga gorsze wyniki w zakresie bezpieczeństwa

od Pan z ApplePlanet
5 maja, 2025
w Sztuczna inteligencja AI
0
Nowy model Gemini AI od Google osiąga gorsze wyniki w zakresie bezpieczeństwa
467
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Najświeższe informacje ujawnione przez Google pokazują, że najnowsza wersja ich modelu sztucznej inteligencji – Gemini 2.5 Flash – wypada gorzej w niektórych testach bezpieczeństwa niż jego poprzednik, Gemini 2.0 Flash. To zaskakujące odkrycie może wzbudzić pytania dotyczące równowagi między zwiększoną elastycznością modelu a jego zgodnością z zasadami etycznymi i bezpieczeństwa.

W opublikowanym w tym tygodniu raporcie technicznym Google potwierdziło, że Gemini 2.5 Flash ma większą skłonność do generowania treści, które naruszają wewnętrzne wytyczne bezpieczeństwa firmy. Na dwóch kluczowych płaszczyznach – „text-to-text safety” (bezpieczeństwo tekstowe) oraz „image-to-text safety” (bezpieczeństwo obrazu względem tekstu) – nowy model odnotował regresję odpowiednio o 4,1% i 9,6%. W praktyce oznacza to, że nowa wersja częściej niż poprzednia odpowiada w sposób niestosowny lub przekraczający zasady ustalone przez Google.

Obydwa testy, które oceniają zdolność modelu do przestrzegania wytycznych etycznych, przeprowadzane są automatycznie bez nadzoru ludzkiego. Test „text-to-text” mierzy, jak często model generuje nieodpowiednie odpowiedzi na tekstowe zapytania użytkowników, natomiast „image-to-text” odnosi się do reakcji modelu na zapytania zawierające obraz. Rzecznik Google potwierdził w oficjalnym oświadczeniu, że Gemini 2.5 Flash faktycznie uzyskuje niższe wyniki w tych obszarach niż jego poprzednik.

Spadek wyników może być skutkiem rosnącego nacisku całej branży technologicznej na zwiększenie „elastyczności” modeli AI – czyli obniżenia liczby sytuacji, w których sztuczna inteligencja odmawia odpowiedzi na kontrowersyjne pytania. Przykładowo, inne duże firmy, takie jak Meta czy OpenAI, już wcześniej zapowiadały, że ich nowe modele AI będą bardziej otwarte na przedstawianie wielu punktów widzenia, nawet na temat trudnych czy politycznie drażliwych zagadnień.

Jednakże liberalizacja zasad nie zawsze przynosi oczekiwane rezultaty. W niedawnym przypadku domyślny model OpenAI pozwolił nieletnim użytkownikom na generowanie treści o charakterze erotycznym – firma nazwała to „błędem”. Tego typu sytuacje podkreślają, jak cienka jest granica pomiędzy elastycznością w odpowiadaniu na pytania a ryzykiem naruszania norm i ochrony użytkowników.

Według raportu technicznego Google, Gemini 2.5 Flash lepiej wykonuje polecenia niż jego starsza wersja, co może tłumaczyć wyższy poziom naruszeń – model bowiem z większą precyzją wykonuje także te instrukcje, które są problematyczne. Firma przyznaje, że niektóre przypadki naruszeń mogą wynikać z fałszywych alarmów w testach, ale również potwierdza, że model potrafi generować „treści nieodpowiednie”, zwłaszcza gdy jest o nie bezpośrednio proszony.

Twórcy zauważyli ważne napięcie: z jednej strony modele mają poprawnie realizować nawet bardzo złożone instrukcje użytkowników, z drugiej – nie wolno im przekraczać zasad bezpieczeństwa i etyki. Jak podkreślono w raporcie, to naturalna sprzeczność, którą trudno jest obecnie całkowicie rozwiązać.

Dodatkowym źródłem niepokoju są wyniki z benchmarku SpeechMap – narzędzia testującego, jak modele AI radzą sobie z pytaniami o charakterze kontrowersyjnym i wrażliwym. Rezultaty sugerują, że nowy model rzadziej odmawia odpowiedzi, nawet jeśli zapytania dotyczą tematów takich jak zastąpienie sędziów przez AI, zniesienie podstawowych gwarancji procesowych w USA czy wprowadzenie masowej, bezpodstawnej inwigilacji. Testy przeprowadzane na platformach jak OpenRouter ujawniają, że model może przyjmować stanowiska wspierające takie inicjatywy, co budzi uzasadniony niepokój.

Thomas Woodside, współzałożyciel Secure AI Project, podkreślił w rozmowie potrzebę większej przejrzystości w raportowaniu testów bezpieczeństwa modeli AI. Według niego ograniczone informacje udostępnione przez Google utrudniają niezależnym ekspertom ocenę realnego ryzyka. Choć firma zapewnia, że naruszenia nie są „poważne”, brak konkretnych danych na temat tych przypadków pozostawia wiele znaków zapytania.

Warto przypomnieć, że nie jest to pierwszy raz, kiedy Google spotyka się z krytyką procesu raportowania bezpieczeństwa swoich modeli. W przeszłości firma znacząco opóźniła publikację raportu dla modelu Gemini 2.5 Pro, a gdy już się on ukazał, początkowo brakowało w nim kluczowych danych na temat testów bezpieczeństwa. Dopiero niedawno, po rosnącej presji, Google udostępniło uzupełnioną i bardziej szczegółową wersję analizy.

Obecna sytuacja jasno pokazuje, że rosnące możliwości technologiczne muszą iść w parze z odpowiedzialnością i transparentnością. Modele takie jak Gemini 2.5 Flash mają olbrzymi potencjał – ale tylko wtedy, gdy ich rozwój będzie prowadzony z pełnym poszanowaniem zasad etycznych i odpowiedzialności społecznej.

Share187Tweet117
Poprzedni artykuł

Google wkrótce umożliwi dzieciom poniżej 13. roku życia korzystanie z chatbota Gemini

Następny artykuł

Komórki odpornościowe jelit powiązane z zaostrzeniem reumatoidalnego zapalenia stawów

Następny artykuł

Komórki odpornościowe jelit powiązane z zaostrzeniem reumatoidalnego zapalenia stawów

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Wersja beta One UI 8 od Samsunga oparta na Androidzie 16 pojawi się szybciej, niż się spodziewasz 11 maja, 2025
  • Promocje na Galaxy S25, S25+ i S25 Ultra – niższe ceny i gratisy, rabat także na OnePlus 13 11 maja, 2025
  • Nadchodzi Galaxy S25 Edge – premiera 13 maja, prototyp Realme z baterią 10 000 mAh i podsumowanie tygodnia 19 11 maja, 2025
  • Promocje: Obniżki cen smartfonów Pixel 9 i tabletów Samsunga 11 maja, 2025
  • Apple zwiększa produkcję obudów do AirPods w Indiach – powstanie druga fabryka 11 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi