Google prezentuje swoją wizję polityki AI w odpowiedzi na działania amerykańskiego rządu
Google podjęło stanowcze kroki w odpowiedzi na inicjatywę administracji Trumpa, która wezwała do stworzenia krajowego „Planu Działań w Zakresie AI”. W opublikowanym dokumencie firma wsparła luźniejsze regulacje dotyczące praw autorskich w kontekście treningu sztucznej inteligencji oraz opowiedziała się za „zrównoważoną” kontrolą eksportu, która miałaby chronić bezpieczeństwo narodowe, ale jednocześnie umożliwiać amerykańskim firmom swobodę handlu na globalnym rynku.
Google podkreśla, że USA powinny aktywnie prowadzić politykę gospodarczą, promując amerykańskie wartości i wspierając innowacje AI na arenie międzynarodowej. Gigant technologiczny zauważa również, że debata dotycząca regulacji AI była przez długi czas nadmiernie skoncentrowana na ryzykach, pomijając jednocześnie koszty związane z nieprzemyślanymi ograniczeniami mogącymi negatywnie wpłynąć na innowacje oraz konkurencyjność Stanów Zjednoczonych.
Kontrowersje wokół wykorzystywania materiałów chronionych prawem autorskim
Jednym z najbardziej kontrowersyjnych postulatów Google jest propozycja dotycząca wykorzystania materiałów objętych ochroną praw autorskich w procesie trenowania AI. Firma argumentuje, że wyjątki związane z „dozwolonym użytkiem” oraz technikami text-and-data mining są kluczowe dla rozwoju sztucznej inteligencji i badań naukowych.
Gigant z Mountain View opowiada się za umożliwieniem firmom technologicznych, w tym oczywiście sobie i konkurencji, trenowania modeli AI na publicznie dostępnych danych – nawet tych chronionych prawem autorskim – bez konieczności uzyskania dodatkowych pozwoleń. Google podkreśla, że tego typu podejście pozwoliłoby uniknąć długich, nieprzewidywalnych i często nierównoważnych negocjacji z podmiotami posiadającymi prawa do danych.
Jednak taki model działania spotyka się ze sporym oporem. Google już teraz mierzy się z licznymi pozwami ze strony właścicieli danych, którzy zarzucają firmie niewłaściwe wykorzystanie chronionych treści bez zgody i odpowiedniego wynagrodzenia dla twórców.
Google krytykuje ograniczenia eksportowe
W swojej propozycji Google odnosi się również do polityki kontroli eksportu realizowanej przez administrację Bidena. Firma twierdzi, że niektóre restrykcje mogą osłabić cele gospodarcze, nakładając nieproporcjonalne obowiązki na amerykańskich dostawców usług chmurowych. To stanowisko kontrastuje ze stanowiskiem Microsoftu, który na początku roku zadeklarował pełną zgodność z nowymi regulacjami.
Co istotne, aktualnie obowiązujące regulacje eksportowe ograniczają dostęp do zaawansowanych chipów AI w określonych krajach, jednocześnie przewidując wyjątki dla zaufanych firm potrzebujących dużych mocy obliczeniowych.
Inwestycje w badania i legislacja na poziomie federalnym
Google mocno podkreśla potrzebę intensywnych i długofalowych inwestycji w badania nad AI na poziomie krajowym. Firma sprzeciwia się próbom redukcji wydatków i likwidacji grantów wspierających rozwój sztucznej inteligencji, sugerując jednocześnie, że rząd powinien udostępnić większe zbiory danych, które mogłyby być wykorzystane do szkolenia modeli AI.
Warto zwrócić uwagę na dynamicznie rosnącą liczbę projektów ustaw regulujących AI w Stanach Zjednoczonych. Zaledwie dwa miesiące po rozpoczęciu 2025 roku liczba projektów ustaw dotyczących AI wyniosła już 781. Google wskazuje na potrzebę ujednolicenia prawa na poziomie federalnym, aby uniknąć chaosu regulacyjnego wynikającego z różnic w legislacji na poziomie stanowym.
Ostrzeżenia przed nadmiernymi regulacjami i zobowiązaniami prawnymi
Google przestrzega przed nałożeniem zbyt restrykcyjnych zobowiązań dotyczących odpowiedzialności za wykorzystanie AI. Firma argumentuje, że deweloperzy modeli nie zawsze mają kontrolę nad tym, w jaki sposób ich technologia jest wykorzystywana, dlatego nie powinni ponosić pełnej odpowiedzialności za potencjalne niewłaściwe użycie sztucznej inteligencji.
Przykładem regulacji, którym Google zdecydowanie się sprzeciwiało, jest odrzucona w Kalifornii ustawa SB 1047. Przewidywała ona szczegółowe wytyczne dotyczące odpowiedzialności deweloperów AI, określając, jakiego rodzaju środki bezpieczeństwa powinny zostać wdrożone jeszcze przed publicznym udostępnieniem modelu.
Kwestia przejrzystości i ujawniania informacji o modelach AI
Google wyraziło również swoje zaniepokojenie w związku z rosnącymi wymaganiami dotyczącymi przejrzystości modeli AI, jakie nakładają niektóre kraje i stany. Firma uważa, że regulacje, które wymagałyby publikowania szczegółowych informacji technicznych na temat działania modeli, mogą naruszać tajemnice handlowe, umożliwiać konkurencji kopiowanie technologii oraz potencjalnie zagrażać bezpieczeństwu narodowemu.
Przykładem takich regulacji jest przyjęta w Kalifornii ustawa AB 2013, zobowiązująca firmy AI do publikacji streszczeń zbiorów danych wykorzystywanych do trenowania ich modeli. Z kolei w Unii Europejskiej w ramach nadchodzącej ustawy AI Act firmy będą musiały dostarczać użytkownikom szczegółowe instrukcje dotyczące funkcjonowania i potencjalnych ryzyk związanych z ich modelami.
Wszystkie te kwestie pokazują, jak złożona i dynamiczna stała się dyskusja na temat regulacji sztucznej inteligencji. Google wyraźnie forsuje bardziej elastyczne podejście, które sprzyjałoby innowacjom. Jednak pytanie, czy jego propozycje znajdą uznanie wśród regulatorów i społeczeństwa, pozostaje otwarte.