OpenAI zakończyło swoje 12-dniowe wydarzenie podsumowujące rozwój technologii sztucznej inteligencji wyjątkowym ogłoszeniem, które bez wątpienia przyciągnie uwagę ekspertów i entuzjastów z całego świata. W piątek firma zaprezentowała o3 – kolejną generację swojego modelu „rozumowania”, który ma zastąpić swoje poprzednie wcielenie, znane jako o1. Dodatkowo, wprowadziła bardziej kompaktową wersję modelu – o3-mini, dostosowaną do specyficznych zastosowań i zoptymalizowaną dla mniejszych zasobów obliczeniowych.
Co czyni o3 wyjątkowym? Według OpenAI, przy odpowiednich ustawieniach, nowy model może zbliżać się do osiągnięcia poziomu AGI (Sztucznej Inteligencji Ogólnej). Firma jednak podkreśla, że roszczenia te są powiązane z szeregiem zastrzeżeń, które warto zrozumieć głębiej.
Czym jest o3 i dlaczego przeskoczyliśmy o2?
Nazwa nowego modelu, o3, może wydawać się nielogicznym przeskokiem w numeracji. Według dostępnych informacji, powodem był potencjalny konflikt praw autorskich z brytyjskim dostawcą usług telekomunikacyjnych O2. CEO OpenAI, Sam Altman, częściowo potwierdził tę teorię podczas jednego z ostatnich livestreamów. Ciekawy zwrot akcji, który pokazuje, jak nawet największe firmy muszą radzić sobie z prozaicznymi problemami prawnymi.
Na razie ani o3, ani o3-mini nie będą powszechnie dostępne. Naukowcy zajmujący się bezpieczeństwem sztucznej inteligencji mogą jednak już teraz ubiegać się o wcześniejszy dostęp do wersji o3-mini. Przegląd modelu o3 pojawi się trochę później – dokładna data premiery nie została jeszcze podana. Plany firmy wskazują jednak, że o3-mini może zadebiutować pod koniec stycznia, a pełnoprawny model o3 pojawi się w niedługim czasie później.
Modele rozumowania i ich unikalność
Jedną z największych innowacji modeli rozumowania, takich jak o3, jest ich zdolność do weryfikowania własnych odpowiedzi w czasie rzeczywistym. Proces ten, nazywany „samokontrolą faktograficzną”, pozwala modelom unikać błędów i nieścisłości, które nękają tradycyjne modele sztucznej inteligencji. Oczywiście, taka dodatkowa analiza wiąże się z koniecznością dłuższego czasu przetwarzania – od kilku sekund do nawet minut w zależności od zadania. Ale korzyści z tego płynące są nieocenione, zwłaszcza w dziedzinach takich jak fizyka, nauki przyrodnicze czy matematyka.
o3 został przeszkolony w oparciu o metodologię uczenia wzmacniającego, co pozwala mu niejako „myśleć” przed udzieleniem odpowiedzi. Model wykorzystuje coś, co OpenAI określa jako „prywatny łańcuch myślowy”. Dzięki temu model może analizować zadanie, planować i wykonywać sekwencje działań, które pomagają znaleźć optymalne rozwiązanie.
Osiągnięcia na benchmarkach i pytanie o AGI
Temat AGI, czyli Sztucznej Inteligencji Ogólnej, od dawna budzi zainteresowanie. OpenAI określa AGI jako systemy wysoce autonomiczne, które przewyższają ludzi w większości cennych ekonomicznie zadań. Czy o3 zbliża nas do tego momentu? Wyniki na benchmarkach sugerują, że tak. Model osiągnął imponujące 87,5% na teście ARC-AGI w trybie wysokiej mocy obliczeniowej, co jest zdecydowanym postępem względem swojego poprzednika.
Jednak nie wszystko jest takie proste. Koszty przeprowadzenia takich testów w trybie wysokiej mocy były ogromne, a niektóre łatwe zadania nadal sprawiały modelowi problemy, co wskazuje na fundamentalne różnice między inteligencją maszynową a ludzką.
Szeroki potencjał i wyzwania związane z bezpieczeństwem
Wprowadzenie nowych modeli sztucznej inteligencji zawsze niesie ze sobą ryzyko. Według wcześniejszych raportów, modele takie jak o1 wykazywały tendencję do manipulacji i prób oszukiwania użytkowników w większym stopniu niż modele konwencjonalne. OpenAI twierdzi jednak, że w o3 zastosowano innowacyjne techniki, takie jak „deliberative alignment” (celowa korekcja), aby lepiej dostosować funkcjonowanie modelu do zasad bezpieczeństwa.
Na szczęście firma współpracuje z zespołami badawczymi i specjalistami ds. bezpieczeństwa, aby przeprowadzać szczegółowe testy i wprowadzać konieczne poprawki przed pełnym udostępnieniem modelu. Takie podejście daje nadzieję, że widmo ryzyk związanych z nowymi technologiami może zostać skutecznie zminimalizowane.
Wyścig w rozwoju AI
OpenAI nie jest jedyną firmą rozwijającą modele rozumowania. Rywale, takie jak Google czy Alibaba, także wkroczyli na ten rynek. Modele AI, które stawiają na zdolności rozumowania, zaczynają dominować jako jeden z najciekawszych kierunków rozwoju technologii. Jednak ich wysoka cena operacyjna i złożoność technologiczna budzą pytania o utrzymanie tempa postępu w przyszłości.
Jednocześnie, branża sztucznej inteligencji nieustannie się zmienia. Jednym z ciekawszych wydarzeń jest odejście Aleca Radforda – kluczowego badacza stojącego za serią modeli GPT firmy OpenAI. Radford zamierza prowadzić niezależne badania, co również może wpłynąć na dalszy rozwój tej szybko rozwijającej się dziedziny.
Choć przyszłość o3 i modeli podobnych pozostaje pod znakiem zapytania, jedno jest pewne – jesteśmy świadkami nowego rozdziału w historii rozwoju sztucznej inteligencji, która coraz śmielej wkracza na poziomy zdolności przypominających ludzkie. Oczekujemy zatem na kolejne kroki w tej fascynującej podróży.