Dyrektor generalny Meta, Mark Zuckerberg, zadeklarował, że sztuczna inteligencja ogólna (AGI) – definiowana jako SI zdolna wykonywać każde zadanie, które może zrealizować człowiek – zostanie w przyszłości udostępniona publicznie. Jednak Meta przedstawiła w nowym dokumencie politycznym, nazwanym „Frontier AI Framework”, sytuacje, w których wysoce zaawansowane systemy SI stworzone wewnętrznie mogą nie zostać upublicznione.
W dokumencie tym Meta wyróżnia dwa typy systemów, które uważa za zbyt ryzykowne do udostępnienia: systemy „wysokiego ryzyka” oraz „krytycznego ryzyka”. Obie te klasy systemów, zgodnie z definicją Meta, mogą stanowić zagrożenie w kontekście cyberbezpieczeństwa, ataków chemicznych czy biologicznych. Różnica polega na potencjalnych skutkach – systemy „krytycznego ryzyka” mogą prowadzić do „katastrofalnych konsekwencji, które nie mogą zostać złagodzone w kontekście planowanego wdrożenia”. W przeciwieństwie do nich, systemy „wysokiego ryzyka” mogą jedynie ułatwiać ataki, ale nie są tak niezawodne czy niebezpieczne jak te z klasy „krytycznego ryzyka”.
Jakie rodzaje zagrożeń kryją się za tymi systemami? Meta podaje konkretne przykłady, takie jak „zautomatyzowane, kompleksowe przejęcie środowiska korporacyjnego chronionego zgodnie z najlepszymi praktykami” czy „rozpowszechnianie broni biologicznej o dużym zasięgu”. Lista potencjalnych katastrof przedstawionych w dokumencie nie jest wyczerpująca. Meta zaznacza jednak, że uwzględniono w niej sytuacje uznane za „najpilniejsze” oraz najbardziej prawdopodobne w wyniku upublicznienia potężnych systemów SI.
Zaskakującym elementem dokumentu jest podejście Meta do oceny tych systemów. Klasyfikacja ryzyka nie opiera się na żadnym jednolitym, empirycznym teście, lecz wynika z opinii zarówno wewnętrznych, jak i zewnętrznych ekspertów, które są weryfikowane przez „osoby decyzyjne na wyższych szczeblach”. Dlaczego wybrano właśnie taką metodę? Firma wyjaśnia, że obecna nauka nie oferuje jeszcze wystarczająco solidnych narzędzi do precyzyjnego określania ryzyka systemów SI w sposób ilościowy.
Jeśli Meta zaklasyfikuje system jako wysokiego ryzyka, dostęp do niego zostanie ograniczony wyłącznie do użytku wewnętrznego. Jego udostępnienie nie nastąpi, dopóki nie zostaną wdrożone środki ograniczające ryzyko do umiarkowanego poziomu. W przypadku systemów krytycznego ryzyka Meta deklaruje, że zastosuje nieokreślone zabezpieczenia, aby zapobiec ich przechwyceniu, a także wstrzyma rozwój takich systemów do czasu, aż staną się one mniej niebezpieczne.
„Frontier AI Framework” – jak podkreśla Meta – jest dokumentem, który będzie ewoluował w miarę zmieniającego się krajobrazu technologii SI. Publikacja tego dokumentu może być odpowiedzią na krytykę w kierunku strategii Meta, która zakłada otwartość w udostępnianiu technologii. Jest to podejście bardziej liberalne w porównaniu z firmami takimi jak OpenAI, które zabezpieczają swoje systemy poprzez ograniczenia dostępu i oferowanie ich jedynie przez interfejsy API.
Polityka „otwartej SI” przynosi Meta zarówno korzyści, jak i problemy. Rodzina modeli SI tej firmy, znana jako Llama, osiągnęła setki milionów pobrań. Z drugiej strony, Llama była już rzekomo wykorzystywana przez jednego z przeciwników USA do opracowania czatu obronnego. To pokazuje, jak łatwo potężne narzędzia SI mogą zostać wykorzystane do celów niezgodnych z pierwotnymi intencjami twórców.
Publikując swoją platformę Frontier AI Framework, Meta wydaje się również chcieć odróżnić się od chińskiej firmy DeepSeek. Ta ostatnia udostępnia swoje systemy w sposób równie otwarty, lecz nieraz wskazywano na brak odpowiednich zabezpieczeń, co może prowadzić do generowania toksycznych i szkodliwych treści.
„Uważamy, że poprzez uwzględnienie zarówno korzyści, jak i ryzyk w procesie podejmowania decyzji dotyczących rozwoju i wdrażania zaawansowanej SI, możliwe jest oddanie tej technologii społeczeństwu w sposób, który przynosi jej korzyści, jednocześnie zachowując odpowiedni poziom bezpieczeństwa” – czytamy w dokumencie Meta.