Sztuczna inteligencja mogła osiągnąć obecny poziom znacznie wcześniej – czego zabrakło?
Noam Brown, jeden z czołowych ekspertów ds. zaawansowanych modeli rozumowania w OpenAI, twierdzi, że systemy sztucznej inteligencji o umiejętnościach logicznych, takie jak model o1, mogłyby powstać nawet 20 lat wcześniej, gdyby badacze znali odpowiednie algorytmy i metody podejścia do tego zagadnienia. Jego uwagi padły podczas panelu dyskusyjnego na konferencji Nvidia GTC w San Jose.
Brown zwrócił uwagę na fakt, że przez długi czas badania nad zaawansowanym rozumowaniem sztucznej inteligencji były pomijane z różnych powodów. Podczas swojego wystąpienia podkreślił, że przez lata badań dostrzegł pewien brak w istniejących modelach – ludzie zazwyczaj poświęcają znaczną ilość czasu na myślenie i analizę przed podjęciem trudnej decyzji. Jeśli AI miałaby działać podobnie, mogłoby to przynieść ogromne korzyści dla rozwoju tej technologii.
Jednym z przełomowych osiągnięć Browna jest model o1, który wykorzystuje technikę tzw. test-time inference. Jest to proces polegający na zastosowaniu dodatkowej mocy obliczeniowej podczas działania modelu, aby umożliwić mu głębszą analizę i bardziej precyzyjne odpowiedzi. Takie podejście znacząco poprawia dokładność i niezawodność AI, zwłaszcza w dziedzinach wymagających ścisłego myślenia, takich jak matematyka czy nauki przyrodnicze.
Specjalista jasno zaznaczył, że tradycyjne metody trenowania sztucznej inteligencji, polegające na szkoleniu coraz większych modeli na ogromnych zbiorach danych, wciąż mają swoje miejsce w branży. Choć przez lata dominowała technika skalowania pre-treningu, obecnie badacze zaczynają łączyć ją z nowym podejściem, jakim jest test-time inference. Według Browna oba te podejścia powinny współistnieć i wspierać się nawzajem.
Podczas panelu Brown został także zapytany o to, czy środowiska akademickie mogą konkurować z wielkimi laboratoriami badawczymi, takimi jak OpenAI, biorąc pod uwagę ograniczone zasoby obliczeniowe, jakimi dysponują uniwersytety. Ekspert przyznał, że rozwój modeli AI staje się coraz bardziej wymagający pod względem mocy obliczeniowej, co utrudnia uczelniom prowadzenie badań na tak dużą skalę. Jednak nadal istnieją obszary, w których naukowcy akademiccy mogą mieć realny wpływ – jednym z nich jest projektowanie nowych architektur modeli, które nie wymagają tak dużych zasobów.
Brown podkreślił także, że laboratoria badawcze śledzą publikacje akademickie i analizują, które pomysły mogą być skuteczne w przypadku większej skali. Według niego współpraca pomiędzy ośrodkami akademickimi a zaawansowanymi laboratoriami AI może przynieść ogromne korzyści dla całej branży.
Jego komentarze pojawiają się w momencie, gdy administracja Donalda Trumpa dokonuje znacznych cięć w finansowaniu badań naukowych, co wzbudza obawy wśród ekspertów zajmujących się sztuczną inteligencją. Wielu naukowców, w tym laureat Nagrody Nobla Geoffrey Hinton, zwróciło uwagę, że ograniczenie wsparcia finansowego może zagrozić rozwojowi badań AI zarówno w Stanach Zjednoczonych, jak i na arenie międzynarodowej.
Jednym z kluczowych obszarów, w którym środowisko akademickie może odegrać istotną rolę, jest poprawa benchmarkingu AI. Według Browna obecny stan testowania modeli pozostawia wiele do życzenia, a jego poprawa nie wymaga aż tak dużej mocy obliczeniowej. Obecnie wiele popularnych testów mierzy raczej znajomość niszowych zagadnień niż faktyczną skuteczność modeli w rzeczywistych zadaniach. Powoduje to zamieszanie w postrzeganiu możliwości AI i ich realnej przydatności w codziennych zastosowaniach.
Wyraźnie widać, że przyszłość zaawansowanego rozumowania sztucznej inteligencji nie opiera się wyłącznie na gromadzeniu coraz większych ilości danych, ale także na metodach skuteczniejszej analizy i myślenia w czasie działania. Czy w najbliższej przyszłości zobaczymy nowe przełomy oparte na tej koncepcji? Czas pokaże, ale jedno jest pewne – sztuczna inteligencja wciąż dynamicznie się rozwija, a przed nami jeszcze wiele innowacyjnych rozwiązań.