Organizacja nonprofit Encode w obronie pierwotnej misji OpenAI
Organizacja non-profit Encode, współsponsorująca niedawno dyskutowane przepisy w Kalifornii dotyczące bezpieczeństwa sztucznej inteligencji (w ramach projektu ustawy SB 1047), wystąpiła z oficjalnym wnioskiem do sądu USA w Kalifornii. Encode zamierza wesprzeć Elona Muska w jego pozwie dotyczącym powstrzymania transformacji OpenAI z organizacji nonprofit na podmiot nastawiony na osiąganie zysku. W ocenie Encode, zmiana ta zaprzecza początkowym założeniom OpenAI związanym z rozwojem technologii w sposób bezpieczny i korzystny dla społeczeństwa.
W piśmie złożonym do sądu Encode podkreśla, że przekształcenie OpenAI w podmiot „for-profit” osłabi zobowiązanie firmy wobec interesu publicznego. „Jeżeli rzeczywiście zbliżamy się do epoki ogólnej sztucznej inteligencji (AGI), odpowiedzialność za jej kontrolę powinna spoczywać na organizacji non-profit. Tylko taka organizacja, prawnie zobowiązana do priorytetowego traktowania dobra publicznego i bezpieczeństwa, może właściwie realizować tę misję” – czytamy w złożonym dokumencie. Encode obawia się, że organizacja nastawiona na zyski skoncentruje się na interesach inwestorów, kosztem ogólnego bezpieczeństwa i innowacyjnego charakteru technologii.
Droga OpenAI: od non-profit do hybrydowej struktury
OpenAI powstało w 2015 roku jako organizacja badawcza non-profit, mająca na celu rozwój technologii AI dostępnej i użytecznej dla wszystkich. Jednak koszty prac badawczych znacząco wzrosły, co doprowadziło do decyzji o utworzeniu hybrydowej struktury. Model ten łączy działalność organizacji non-profit z możliwością przyjmowania inwestycji kapitałowych. Dzięki temu między innymi Microsoft zainwestował miliard dolarów w rozwój OpenAI.
Obecnie OpenAI działa jako podmiot hybrydowy – część organizacji odpowiada za działania non-profit, podczas gdy sekcja nastawiona na zysk jest kontrolowana przez non-profit. Mimo to, zapowiadane przekształcenie działalności „for-profit” w korporację Delaware Public Benefit Corporation (PBC) budzi kontrowersje. Krytycy obawiają się, że zapewnienia o równoważeniu interesu publicznego z interesem akcjonariuszy mogą okazać się niewystarczające w obliczu presji ze strony inwestorów.
Sprzeciw Elona Muska i obawy o misję pierwotną
Elon Musk, będący jednym z założycieli pierwotnej organizacji non-profit OpenAI, złożył pozew mający na celu zablokowanie transformacji. W swoich zarzutach Musk twierdzi, że OpenAI odchodzi od swojej początkowej, filantropijnej misji, zgodnie z którą owoce badań AI miały być dostępne dla wszystkich. Musk zarzuca także konkurencyjne praktyki, twierdząc, że obecna forma OpenAI może ograniczać rozwój rywali – w tym także jego własnego przedsięwzięcia, firmy xAI.
Odpowiedź OpenAI była bezkompromisowa. Firma określiła zarzuty Muska mianem „bezpodstawnych”, sugerując, że jego działania wynikają z osobistych rozczarowań. Sprawa jednak zyskała dodatkowy wymiar, gdy Meta – właściciel Facebooka i jeden z konkurentów OpenAI – wyraziła swoje poparcie dla inicjatywy mającej powstrzymać przekształcenie spółki. W liście skierowanym do prokuratora generalnego Kalifornii, Meta stwierdziła, że zmiana w strukturze OpenAI może mieć „przełomowy wpływ na działalność całej Doliny Krzemowej”.
Ryzyko porzucenia etosu bezpieczeństwa
Encode w swoim wniosku zaznacza, że transformacja OpenAI oznaczałaby złamanie podstawowych zasad istniejącego modelu organizacji. Organizacja non-profit OpenAI, zgodnie z przyjętymi zasadami, zobowiązała się nie konkurować z projektami AI, które są zgodne z wartościami bezpieczeństwa i współpracy nad AGI. W modelu PBC takie ograniczenia mogą zostać zniesione, co osłabi globalne bezpieczeństwo w kwestii rozwoju sztucznej inteligencji. Encode obawia się również, że rada zarządzająca non-profit OpenAI straci możliwość uchylania udziałów inwestorów w przypadku ewentualnych zagrożeń bezpieczeństwa.
Transformacja OpenAI wywołuje również wewnętrzne napięcia w samej organizacji. Od dłuższego czasu obserwuje się odpływ kluczowych pracowników, którzy wskazują na nadmierne skupienie się firmy na korzyściach komercyjnych, a nie na bezpieczeństwie i etyce. Miles Brundage, były badacz polityki w OpenAI, określił obecne podejście spółki jako krok w stronę funkcjonowania jak „typowa firma komercyjna”, ignorując kwestie krytyczne dla szeroko pojętego dobra publicznego.
Znaczenie misji Encode
Encode, założone w 2020 roku przez młodą aktywistkę Sneha Revanur, to wyjątkowa organizacja, która daje głos młodym ludziom w debatach dotyczących przyszłości sztucznej inteligencji. Pomimo skromnych początków, Encode aktywnie uczestniczyło w tworzeniu najważniejszych regulacji dotyczących AI, w tym projektu „Bill of Rights”, czyli zbioru zasad bezpieczeństwa i przejrzystości AI zaproponowanego przez Biały Dom, oraz rozporządzenia wykonawczego Prezydenta USA Joe Bidena w sprawie AI.
Działania Encode oraz złożony wniosek w sprawie OpenAI to wyraz troski o przyszłość technologii AI i jej wpływ na społeczeństwo. Jak pokazuje ten przypadek, przejrzystość i zachowanie pierwotnych ideałów misji stają się kluczowymi elementami w szybko zmieniającym się krajobrazie sztucznej inteligencji.