Badania nad sztuczną inteligencją wciąż przyspieszają, a najnowszy przełom pokazuje, że trenowanie zaawansowanych modeli może być znacznie tańsze, niż się wydawało. Naukowcy ze Stanford oraz Uniwersytetu Waszyngtońskiego opracowali model AI do zaawansowanego „rozumowania” za mniej niż 50 dolarów wykorzystując kredyty obliczeniowe w chmurze. Wyniki badań opublikowano w nowym artykule naukowym.
Model, nazwany s1, wykazuje porównywalne wyniki do innych zaawansowanych systemów, takich jak o1 od OpenAI czy R1 od DeepSeek, gdy testowane są jego zdolności matematyczne oraz umiejętność kodowania. Co więcej, s1 jest w pełni dostępny na GitHubie, gdzie można znaleźć zarówno model, jak i kod oraz dane użyte do jego treningu.
Twórcy s1 wykorzystali istniejący, gotowy model bazowy, który następnie dopracowali dzięki metodzie destylacji. Jest to proces, w którym model AI „uczy się” rozumowania poprzez analizę odpowiedzi wygenerowanych przez inny, bardziej zaawansowany system.
Według badaczy, s1 został zdestylowany z modelu Gemini 2.0 Flash Thinking Experimental opracowanego przez Google. Podobna metodologia została zastosowana wcześniej przez specjalistów z Berkeley, którzy w zeszłym miesiącu stworzyli inny model rozumowania AI za około 450 dolarów.
Odkrycie to wywołuje spore emocje w świecie sztucznej inteligencji. Z jednej strony pokazuje, że niezależni badacze bez dostępu do milionowych budżetów nadal mogą wnieść istotny wkład w rozwój tej technologii. Z drugiej strony rodzi pytania o komercjalizację i ochronę własności intelektualnej istniejących modeli.
Jeśli możliwe staje się odtworzenie modelu AI opracowanego przez dużą firmę za ułamek jego pierwotnego kosztu, co to oznacza dla przewagi konkurencyjnej gigantów technologicznych?
Nic więc dziwnego, że duże laboratoria badawcze takie jak OpenAI nie patrzą na te postępy przychylnie. OpenAI oskarżyło DeepSeek o nieautoryzowane pozyskiwanie danych z ich API w celu przeprowadzenia destylacji modelu.
Badacze stojący za modelem s1 dążyli do znalezienia najprostszej metody osiągnięcia wysokiej wydajności w zakresie rozumowania oraz tzw. test-time scaling, czyli umożliwienia AI dłuższego „zastanawiania się” przed udzieleniem odpowiedzi. Były to kluczowe innowacje w modelu o1 OpenAI, które inne laboratoria, w tym DeepSeek, starały się naśladować.
Wyniki badań nad s1 pokazują, że modele rozumowania mogą być trenowane za pomocą stosunkowo małych zbiorów danych przy użyciu techniki zwanej nadzorowanym dopasowaniem (supervised fine-tuning, SFT). Polega ona na intencjonalnym kształtowaniu modelu tak, by naśladował określone wzorce zachowań na podstawie dostarczonego zbioru danych.
Co istotne, metoda SFT jest znacznie tańsza niż duże projekty oparte na uczeniu przez wzmacnianie, które DeepSeek wykorzystało do trenowania swojego konkurencyjnego modelu wobec OpenAI o1 – modelu R1.
Google udostępnia Gemini 2.0 Flash Thinking Experimental za darmo przez swoją platformę Google AI Studio, choć z pewnymi ograniczeniami dotyczącymi liczby zapytań dziennych.
Jednocześnie regulamin Google zabrania reverse-engineeringu jego modeli w celu tworzenia usług konkurujących z ofertą firmy. W związku z tym skontaktowano się z Google, aby uzyskać komentarz w tej sprawie.
Model s1 opiera się na dostępnym publicznie, niewielkim modelu AI stworzonym przez chińskie laboratorium Qwen, należące do Alibaba. Jego trening przeprowadzono na bazie zestawu zaledwie 1000 specjalnie dobranych pytań i odpowiedzi, zawierających także „proces myślowy” modelu Gemini 2.0 Flash Thinking Experimental.
Szkolenie s1 zajęło mniej niż 30 minut i zostało przeprowadzone na 16 jednostkach GPU Nvidia H100. Według Niklasa Muennighoffa, jednego z badaczy ze Stanford, koszt wynajęcia odpowiedniej infrastruktury wynosiłby dziś około 20 dolarów.
Co ciekawe, naukowcy zastosowali trik, który pozwolił s1 sprawdzać własne odpowiedzi i zwiększyć „czas myślenia” – poinstruowali go, by… poczekał. Dodanie słowa „wait” w trakcie procesu rozumowania skutkowało nieco większą precyzją udzielanych odpowiedzi.
W 2025 roku giganci technologiczni, tacy jak Meta, Google i Microsoft, planują wydać setki miliardów dolarów na rozwój infrastruktury AI, przeznaczając część tych środków na trenowanie nowej generacji modeli sztucznej inteligencji.
Tego rodzaju inwestycje mogą okazać się kluczowe dla dalszego postępu w AI. Destylacja modeli jest skuteczną metodą na tanie replikowanie istniejących systemów, jednak jak dotąd nie pozwala na opracowywanie zupełnie nowych, przełomowych rozwiązań na szerszą skalę.