Nowe modele AI od Google budzą entuzjazm, ale ich licencje rodzą obawy
Firma Google wprowadziła na rynek nową rodzinę modeli sztucznej inteligencji, Gemma 3, które szybko zostały docenione za swoją wydajność. Jednak wśród deweloperów zajmujących się AI pojawiły się pewne obawy – warunki licencyjne narzucone przez Google sprawiają, że komercyjne wykorzystanie modeli Gemma 3 może być ryzykowne.
Nie jest to problem unikalny dla tej serii modeli. Podobne praktyki stosują także inne firmy, takie jak Meta, które udostępniają swoje modele AI na niestandardowych licencjach. Firmy te nakładają ograniczenia, które powodują niepewność prawną wśród przedsiębiorstw chcących wykorzystać sztuczną inteligencję w swoich produktach czy usługach. Szczególnie małe firmy obawiają się, że giganci technologiczni mogą w dowolnym momencie zmienić zasady gry, co mogłoby zagrozić ich działalności.
Niejasne zasady licencji zagrażają otwartości sztucznej inteligencji
Eksperci ds. otwartego oprogramowania, tacy jak Nick Vidal z Open Source Initiative, wyrażają swoje zaniepokojenie. Według niego modele promowane jako „otwarte” często okazują się znacznie bardziej ograniczone, niż sugeruje to ich nazwa. „Obecna strategia licencjonowania utrudnia przyjęcie tych technologii przez sektor komercyjny, ponieważ narzuca liczne przeszkody prawne i praktyczne” – zaznacza Vidal.
Deweloperzy modeli AI mają swoje powody, by wybierać licencje niestandardowe zamiast dobrze znanych opcji, takich jak Apache 2.0 czy MIT. Przykładem jest startup Cohere, który jawnie zadeklarował, że jego modele mają służyć celom naukowym, a nie komercyjnym. Jednak w przypadku modeli Gemma oraz Llama od Meta szczegółowe zapisy w licencjach znacząco ograniczają możliwości firm chcących wykorzystać te systemy bez ryzyka prawnego.
Ograniczenia w użytkowaniu mogą odstraszać organizacje
Firma Meta wprowadziła w licencji na Llama 3 zapis, który zabrania wykorzystania wyników działania modelu do ulepszania innych modeli niż Llama 3. Dodatkowo organizacje posiadające więcej niż 700 milionów aktywnych użytkowników miesięcznie muszą uzyskać specjalną licencję, aby korzystać z tych modeli. Google zastosowało mniej restrykcyjne podejście, jednak wciąż zapisało w licencji na Gemma, że może zdalnie ograniczyć dostęp do modelu, jeśli uzna, że narusza on regulamin lub obowiązujące prawo.
Co więcej, restrykcje te nie mają zastosowania wyłącznie do oryginalnych modeli. Jakiekolwiek rozwiązania oparte na Gemma czy Llama – w tym modele wyszkolone na danych pochodzących z tych systemów – także muszą spełniać ich warunki licencyjne.
Czy te licencje można faktycznie nazwać „otwartymi”?
Florian Brand z Niemieckiego Centrum Badawczego ds. Sztucznej Inteligencji uważa, że licencje, jakie stosują Google i Meta, nie mogą zostać uznane za prawdziwie „otwarte”. „Największe firmy stosują tylko licencje ustandaryzowane, takie jak Apache 2.0. Każda niestandardowa licencja oznacza dodatkowy nakład pracy i koszty prawne, co odstrasza mniejsze przedsiębiorstwa od korzystania z tych modeli” – twierdzi Brand.
Eksperci zauważają, że chociaż firmy takie jak Google jeszcze nie egzekwowały agresywnie swoich ograniczeń licencyjnych, to sama możliwość takiej interwencji budzi niepokój. To wahadło niepewności skutecznie zniechęca niektóre przedsiębiorstwa do wdrażania tych modeli w działalności komercyjnej.
Biznes boi się pułapki prawnej
Han-Chung Lee, dyrektor ds. uczenia maszynowego w Moody’s, podkreśla, że licencje stosowane w modelach Gemma czy Llama sprawiają, że nie nadają się one do wielu zastosowań komercyjnych. Podobnego zdania jest Eric Tramel, naukowiec zajmujący się SI w startupie Gretel. „Licencje specyficzne dla modeli mogą narzucać ograniczenia na sposoby wykorzystywania ich pochodnych, co rodzi niepewność prawną” – zauważa Tramel.
Największą obawą specjalistów jest to, że firmy udostępniające modele mogą najpierw obserwować, w jakich obszarach biznesowych są one wykorzystywane, a następnie wywierać presję na firmy za pomocą działań prawnych lub wymuszania dodatkowych licencji. Jeśli licencje pozostaną w obecnej formie, przedsiębiorstwa mogą zdecydować się na mniej zaawansowane, ale bardziej przejrzyste modele, licencjonowane na przykład na zasadach Apache 2.0.
Potrzebna jest większa przejrzystość i otwartość
Pomimo restrykcji prawnych, niektóre modele, takie jak Llama 3 od Meta, zyskały ogromną popularność i zostały zaimplementowane przez duże firmy, jak choćby Spotify. Jednak eksperci uważają, że mogłyby odnieść jeszcze większy sukces, gdyby były bardziej otwarte.
Yacine Jernite z AI startupu Hugging Face apeluje do firm takich jak Google, by przechodziły na otwarte licencje i współpracowały ze społecznością w celu wypracowania szeroko akceptowanych zasad. Przekonuje, że brak jasności prawnej może zahamować rozwój ważnych projektów i ograniczyć ich zastosowanie w przemyśle.
Nick Vidal podkreśla, że w ekosystemie AI istnieje pilna potrzeba bardziej przejrzystych zasad, które umożliwią firmom swobodne integrowanie, modyfikowanie i wykorzystywanie modeli sztucznej inteligencji bez strachu przed nagłymi zmianami licencyjnymi. „Zamiast redefiniować pojęcie ‘otwartości’ na potrzeby korporacji, branża AI powinna dostosować się do sprawdzonych norm open-source, aby stworzyć prawdziwie otwarte środowisko technologiczne” – podsumowuje Vidal.