W najnowszym raporcie politycznym opublikowanym w środę, były dyrektor generalny Google Eric Schmidt, CEO Scale AI Alexandr Wang oraz dyrektor Center for AI Safety Dan Hendrycks ostrzegają przed wyścigiem w rozwoju sztucznej inteligencji na poziomie „superludzkim”, czyli tak zwanej sztucznej inteligencji ogólnej (AGI). Według autorów, Stany Zjednoczone nie powinny naśladować podejścia stylizowanego na Projekt Manhattan, ponieważ może to wywołać groźne konsekwencje geopolityczne.
Dokument zatytułowany „Superintelligence Strategy” argumentuje, że agresywna rywalizacja o kontrolę nad superinteligentnymi systemami AI może sprowokować Chiny do podjęcia działań odwetowych, potencjalnie w formie cyberataków, co mogłoby znacząco zdestabilizować międzynarodowe stosunki. Według autorów, agresywne dążenie do globalnej dominacji na tym polu grozi eskalacją napięć i podważeniem stabilności, którą strategia miała pierwotnie zabezpieczać.
Publikacja tego raportu następuje w kontekście niedawnej propozycji amerykańskiej komisji kongresowej, która zasugerowała, aby Stany Zjednoczone przyjęły podejście inspirowane historycznym Projektem Manhattan w celu przyspieszenia prac nad AGI. Sekretarz Energii USA, Chris Wright, podczas swojego wystąpienia na tle superkomputera wspólnie z Gregiem Brockmanem, współzałożycielem OpenAI, określił ten moment jako „początek nowego Projektu Manhattan” w dziedzinie AI.
Raport Schmidta, Wanga i Hendrycksa podważa jednak zasadność tego podejścia, sugerując, że państwowy projekt na tak dużą skalę niekoniecznie jest najlepszą drogą do skutecznej rywalizacji z Chinami w dziedzinie zaawansowanej sztucznej inteligencji. Autorzy porównują obecny wyścig AGI do strategii „wzajemnie zagwarantowanego zniszczenia” znanej z zimnej wojny, zwracając uwagę, że próba zdobycia monopolu na tak potężną technologię może jedynie sprowokować wrogie działania ze strony rywali.
Chociaż porównanie systemów AI do broni jądrowej może na pierwszy rzut oka wydawać się przesadzone, to już dziś sztuczna inteligencja odgrywa kluczową rolę w strategiach wojskowych największych światowych mocarstw. Przykładem jest Pentagon, który otwarcie przyznaje, że AI pomaga w znacznym przyspieszeniu procesów związanych z „łańcuchem eliminacji” w działaniach wojennych.
W odpowiedzi na te zagrożenia, autorzy dokumentu przedstawiają koncepcję nazwaną Mutual Assured AI Malfunction (MAIM), która sugeruje, że rządy powinny podejmować działania prewencyjne w celu neutralizacji potencjalnie groźnych projektów AI, zanim zostaną one wykorzystane do wrogich celów.
Schmidt, Wang i Hendrycks proponują, aby Stany Zjednoczone skoncentrowały się nie na wyścigu zbrojeń AI, lecz na opracowywaniu mechanizmów odstraszających, które zniechęcą inne kraje do rozwijania superinteligentnych systemów. W ramach tych działań zasugerowali m.in. rozwinięcie arsenału cyberataków, które mogłyby być używane do neutralizacji zagrożeń AI w rękach przeciwników oraz ograniczenie dostępu konkurencyjnych państw do zaawansowanych układów scalonych i otwartoźródłowych modeli AI.
Raport wskazuje na istniejące w debacie nad AI dwa skrajne podejścia – pierwsze to stanowisko „doomerów”, według których szybki rozwój sztucznej inteligencji niemal nieuchronnie doprowadzi do katastrofalnych konsekwencji, co skłania ich do postulowania spowolnienia prac nad AI. Po drugiej stronie znajdują się tzw. „struśie” – optymiści, którzy wzywają do przyspieszenia rozwoju AI, licząc, że sytuacja ostatecznie ułoży się korzystnie.
Autorzy proponują jednak wyważoną, pośrednią ścieżkę – rozwój AGI powinien skupiać się na strategiach defensywnych, a nie na agresywnym dążeniu do dominacji. Podejście to jest szczególnie interesujące w kontekście wcześniejszych wypowiedzi Schmidta, który często podkreślał konieczność rywalizacji Stanów Zjednoczonych z Chinami w zakresie sztucznej inteligencji.
Rząd amerykański pozostaje zdeterminowany, by forsować dalszy rozwój AI, jednak decyzje te nie istnieją w próżni. Schmidt i jego współpracownicy podkreślają, że każda agresywna strategia podjęta przez USA znajdzie swoje odbicie w odpowiedzi innych światowych mocarstw.
W obliczu narastającej presji na rozwój superinteligentnych systemów AI, raport sugeruje, że bardziej rozsądnym podejściem może być strategia defensywna, skoncentrowana na ograniczaniu ryzyka zamiast eskalowania technologicznego wyścigu zbrojeń.