Wezwanie do Moratorium na Rozwój AI
Instytut Przyszłości Życia (Future of Life Institute) zainicjował ruch, publikując otwarte pismo, które apeluje do wszystkich laboratoriów AI o wstrzymanie na co najmniej pół roku prac nad systemami AI bardziej zaawansowanymi niż GPT-4. GPT-4 to popularny system przetwarzania języka naturalnego. To wezwanie do tymczasowego zatrzymania rozwoju AI jest odpowiedzią na rosnący potencjał AI do tworzenia nieoczekiwanych zagrożeń dla społeczeństwa i środowiska. W liście zwraca się uwagę na konieczność bardziej przemyślanego podejścia do rozwoju systemów AI, aby badacze i sektor przemysłowy mogli unikać nieprzewidzianych skutków o katastrofalnym charakterze. Liczy się na to, że taki krok przyczyni się do odpowiedzialnego rozwoju AI i zmniejszenia potencjalnych szkód związanych z tą technologią.
Reakcja Wiodących Instytucji Badawczych AI
Choć apel Instytutu Przyszłości Życia jest wyraźny, nie jest prawdopodobne, aby czołowe instytucje badawcze AI zastosowały się do tego wezwania. Wynika to z obawy przed utratą przewagi konkurencyjnej; branża AI jest niezwykle konkurencyjna, a każda przerwa w rozwoju może zadecydować o sukcesie bądź porażce. Ponadto, niektóre organizacje mogą nie chcieć ryzykować przerwaniem prac nad rozwojem, biorąc pod uwagę ogromny potencjał korzyści płynących z AI.
Znaczący Sygnatariusze Listu Otwartego
List otwarty Instytutu Przyszłości Życia, w którym wezwano wszystkie laboratoria AI do wstrzymania prac nad systemami AI zaawansowanymi bardziej niż GPT-4, zyskał poparcie wielu znaczących osobistości i organizacji z branży AI i technologii. Wśród sygnatariuszy są tacy badacze jak Yoshua Bengio i Stuart Russell, liderzy technologiczni, jak Elon Musk, oraz wizjonerzy, jak Steve Wozniak. Ich podpisy podkreślają pilność sytuacji i wagę poświęcenia czasu na zapewnienie, że AI rozwijane jest w sposób odpowiedzialny i etyczny. Mamy nadzieję, że ci sygnatariusze pomogą zwiększyć świadomość zagrożeń związanych z AI i zachęcą inne organizacje do działania.
Więcej informacji na temat listu można znaleźć na stronie: https://futureoflife.org/open-letter/pause-giant-ai-experiments
W chwili pisania tego artykułu list podpisało 5507 sygnatariuszy.
„Systemy AI o inteligencji porównywalnej do ludzkiej mogą stanowić poważne zagrożenia dla społeczeństwa i ludzkości, co potwierdzają obszerne badania i uznają czołowe laboratoria AI. Zgodnie z powszechnie popieranymi zasadami AI z Asilomar – https://futureoflife.org/open-letter/ai-principles, zaawansowane AI mogłoby stanowić przełom w historii życia na Ziemi i powinno być planowane oraz zarządzane z odpowiednią starannością i zasobami. Niestety, obecnie nie stosuje się tego poziomu planowania i zarządzania, mimo że ostatnie miesiące przyniosły wyścig laboratoriów AI w niekontrolowanym tempie, by opracować i wdrożyć coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidzieć lub niezawodnie kontrolować.” — Instytut Przyszłości Życia
My również popieramy ten list i podpisaliśmy go, choć spodziewamy się, że będzie to raczej symboliczny gest.