Meta, gigant technologiczny znany z rozwoju zaawansowanych rozwiązań w dziedzinie sztucznej inteligencji (AI), ogłosił ostatnio nowe kroki w kierunku współpracy z amerykańskimi agencjami rządowymi oraz firmami partnerskimi zajmującymi się obronnością. Celem jest udostępnienie modeli AI z serii Llama do zastosowań związanych z bezpieczeństwem narodowym. Jest to znaczący ruch, który wywołał wiele dyskusji w kontekście zarówno technologii, jak i bezpieczeństwa globalnego.
Llama w służbie rządu USA
Meta ogłosił, że modele Llama będą dostępne dla amerykańskich agencji rządowych, w tym tych, które zajmują się kwestiami obrony i bezpieczeństwa narodowego. Współpraca będzie obejmować także prywatne firmy, które wspierają te agencje. Wśród partnerów Meta znajdują się takie giganty jak Accenture, Amazon Web Services, Booz Allen, Databricks, Deloitte, IBM, Microsoft, Palantir oraz wiele innych. Firmy te będą wykorzystywać modele Llama do różnorodnych zadań związanych z analizą danych, automatyzacją procesów czy generowaniem kodu komputerowego.
Na przykład Oracle, znana firma zajmująca się bazami danych i technologiami obliczeniowymi, wykorzystuje Llama do przetwarzania dokumentacji związanej z konserwacją samolotów. Z kolei Scale AI pracuje nad dostosowywaniem modeli Llama do specyficznych misji zespołów zajmujących się bezpieczeństwem narodowym. Lockheed Martin, jeden z głównych dostawców sprzętu wojskowego, udostępnia Llama swoim klientom obronnym, aby wykorzystać AI m.in. do generowania kodu komputerowego.
Wyjątki w polityce Meta
Warto zauważyć, że Meta zazwyczaj unika zaangażowania swoich technologii AI w projekty związane z wojskiem, wojną czy szpiegostwem. Jednak w tym przypadku firma zrobiła wyjątek, wprowadzając swoje modele AI do zastosowań wojskowych i obronnych. Również inne kraje, takie jak Wielka Brytania, Kanada, Australia i Nowa Zelandia, mają możliwość skorzystania z tej technologii w podobnym kontekście.
Kontrowersje wokół wykorzystania Llama w Chinach
Niedawno świat obiegła informacja o tym, że chińscy badacze, powiązani z Ludową Armią Wyzwolenia, wykorzystali starszy model Llama 2 do stworzenia narzędzia obronnego opartego na AI. Narzędzie to miało służyć do zbierania i przetwarzania informacji wywiadowczych oraz wspierać proces podejmowania decyzji operacyjnych. Meta szybko zareagowała na te doniesienia, podkreślając, że użycie modelu Llama w tym kontekście było nieautoryzowane i niezgodne z polityką firmy.
Ryzyka związane z AI w obronności
Sztuczna inteligencja, szczególnie w otwartej formie, staje się coraz bardziej kontrowersyjnym tematem, zwłaszcza gdy w grę wchodzi jej zastosowanie w obronności. Według badań przeprowadzonych przez organizację AI Now Institute, istnieje wiele zagrożeń związanych z wykorzystaniem AI w dziedzinach takich jak wywiad wojskowy, nadzór czy rozpoznanie. Modele AI, które polegają na danych osobowych, mogą zostać wykorzystane przez przeciwników do działań niezgodnych z interesami narodowymi.
Jeden z problemów związanych z AI to tzw. „halucynacje” – sytuacje, w których model generuje błędne lub nieistniejące informacje. Takie błędy mogą mieć poważne konsekwencje w kontekście obronności, gdzie trafność informacji jest kluczowa. W związku z tym, niektórzy eksperci sugerują, aby tworzyć modele AI, które będą odseparowane od tych wykorzystywanych w celach komercyjnych, co zmniejszyłoby ryzyko niepożądanych skutków.
Protesty w świecie technologii
Wykorzystanie sztucznej inteligencji przez sektor wojskowy budzi także sprzeciw wśród pracowników największych firm technologicznych. W ostatnich latach pracownicy Google i Microsoftu wyrazili swoje niezadowolenie z powodu kontraktów ich firm z amerykańskim wojskiem, które obejmowały budowę narzędzi AI na potrzeby obronności. Z jednej strony, technologia AI otwiera nowe możliwości w dziedzinach takich jak analiza danych, automatyka czy rozpoznawanie, z drugiej jednak strony, istnieją poważne obawy dotyczące etyki i potencjalnych nadużyć.
Meta broni swojego podejścia
Meta twierdzi, że otwarte modele AI, takie jak Llama, mogą przyspieszyć badania nad obronnością, jednocześnie wspierając interesy ekonomiczne i bezpieczeństwo narodowe Stanów Zjednoczonych. Mimo to, amerykańskie wojsko pozostaje ostrożne, jeśli chodzi o pełne wdrożenie nowych technologii AI. Jak dotąd, jedynie Armia Stanów Zjednoczonych uruchomiła platformę opartą na generatywnej sztucznej inteligencji, co pokazuje, że inne gałęzie sił zbrojnych podchodzą do tego tematu z większą rezerwą.
Podsumowanie
Debata na temat wykorzystania sztucznej inteligencji w obronności jest daleka od zakończenia. Z jednej strony, technologia oferuje ogromny potencjał, mogący zrewolucjonizować wiele aspektów związanych z bezpieczeństwem narodowym. Z drugiej jednak strony, istnieje wiele obaw dotyczących bezpieczeństwa danych, etyki oraz możliwości nadużyć. Meta, dążąc do rozwoju swoich produktów AI, otwiera przed agencjami rządowymi zupełnie nowe możliwości, ale jednocześnie stawia pytania o przyszłość sztucznej inteligencji w kontekście globalnego bezpieczeństwa.