W piątek Lilian Weng, jedna z czołowych badaczek ds. bezpieczeństwa w OpenAI, ogłosiła swoje odejście z firmy. Weng pełniła funkcję wiceprezeski ds. badań i bezpieczeństwa od sierpnia tego roku, a wcześniej przewodziła zespołowi odpowiedzialnemu za systemy bezpieczeństwa w OpenAI.
Za pośrednictwem wpisu na platformie X, Weng poinformowała, że po siedmiu latach pracy w OpenAI jest gotowa na nowy rozdział w swojej karierze. Ostatni dzień jej pracy przypada na 15 listopada, jednak Weng nie ujawniła, jakie będą jej dalsze kroki zawodowe.
Trudna decyzja o odejściu
„Podjęłam niezwykle trudną decyzję o opuszczeniu OpenAI” – napisała Weng w swoim oświadczeniu. „Jestem niesamowicie dumna z tego, co udało się osiągnąć naszemu zespołowi ds. systemów bezpieczeństwa. Mam pełne zaufanie, że zespół dalej będzie się rozwijał i kontynuował swoją misję”.
Odejście Weng to kolejny element w serii zmian personalnych w OpenAI. W ostatnim roku wielu badaczy zajmujących się bezpieczeństwem sztucznej inteligencji, ekspertów ds. polityki oraz kluczowych menedżerów opuściło firmę. Część z tych osób wyraziła obawy, że OpenAI bardziej koncentruje się na komercyjnych produktach niż na kwestiach bezpieczeństwa związanych z technologią AI.
Falowe odejścia liderów ds. bezpieczeństwa
Weng dołącza do grona takich postaci jak Ilya Sutskever czy Jan Leike, którzy także opuścili OpenAI w tym roku. Wcześniej obaj byli kluczowymi liderami zespołu Superalignment, który miał na celu opracowanie metod zarządzania systemami superinteligentnej sztucznej inteligencji. Zespół ten jednak został rozwiązany, a jego członkowie, w tym Sutskever i Leike, podjęli pracę nad bezpieczeństwem AI w innych miejscach.
Historia współpracy z OpenAI
Lilian Weng rozpoczęła swoją pracę w OpenAI w 2018 roku, początkowo w dziale robotyki. Jej zespół zdołał stworzyć robota, który był w stanie rozwiązać kostkę Rubika – projekt ten zajął dwa lata. W miarę jak OpenAI zaczęło coraz bardziej koncentrować się na rozwoju modeli z rodziny GPT, Weng również zmieniła swoje działania, angażując się w budowanie zespołu ds. badań nad zastosowaniami sztucznej inteligencji w 2021 roku.
Po premierze GPT-4 w 2023 roku, Weng została odpowiedzialna za stworzenie dedykowanego zespołu ds. systemów bezpieczeństwa w OpenAI. Obecnie zespół ten liczy ponad 80 naukowców, badaczy i ekspertów ds. polityki, co pokazuje, jak duże znaczenie firma przykładała do kwestii bezpieczeństwa.
Kontrowersje wokół strategii OpenAI
Mimo że zespół ds. bezpieczeństwa AI w OpenAI jest liczny, pojawiają się obawy, czy firma stawia odpowiednio duży nacisk na bezpieczeństwo, w kontekście dążenia do tworzenia coraz potężniejszych systemów AI. W październiku Miles Brundage, wieloletni badacz polityk AI, również opuścił OpenAI, informując, że firma rozwiązała zespół ds. gotowości AGI, którego był doradcą.
Tego samego dnia nowojorski dziennik opublikował wywiad z Suchirem Balajim, byłym badaczem OpenAI, który wyraził swoje obawy, że technologia rozwijana przez firmę przyniesie więcej szkód niż korzyści dla społeczeństwa.
Przyszłość po odejściu Weng
OpenAI zapewnia, że pracuje nad zastąpieniem Weng nowymi liderami. „Jesteśmy ogromnie wdzięczni Lilian za jej wkład w przełomowe badania nad bezpieczeństwem oraz za tworzenie rygorystycznych zabezpieczeń technicznych” – powiedział rzecznik firmy w oświadczeniu przesłanym mediom. Firma jest pewna, że zespół ds. systemów bezpieczeństwa nadal będzie odgrywał kluczową rolę w zapewnieniu, że ich technologie są bezpieczne i niezawodne, służąc milionom ludzi na całym świecie.
Kolejne odejścia z OpenAI
Lilian Weng dołącza do listy wysokich rangą pracowników, którzy w ostatnich miesiącach zdecydowali się odejść z OpenAI. Wśród nich są m.in. była CTO firmy Mira Murati, dyrektor ds. badań Bob McGrew oraz wiceprezes ds. badań Barret Zoph. W sierpniu tego roku firma straciła także wybitnego badacza Andreja Karpathy’ego oraz współzałożyciela Johna Schulmana. Część z tych osób, w tym Leike i Schulman, przeszła do konkurencyjnej firmy Anthropic, podczas gdy inni postanowili założyć własne projekty.
Odejścia kluczowych pracowników mogą być sygnałem zmian w OpenAI, zwłaszcza w kontekście coraz większej presji na rozwój komercyjnych rozwiązań AI przy jednoczesnym zapewnieniu bezpieczeństwa tych technologii.