Dyrektor generalny OpenAI, Sam Altman, ogłosił, że firma zmuszona była rozłożyć w czasie wdrażanie najnowszego modelu GPT-4.5 ze względu na brak dostępnych procesorów graficznych (GPU).
W poście na platformie X, Altman określił GPT-4.5 mianem „ogromnego” i „kosztownego” rozwiązania, które wymaga dziesiątek tysięcy dodatkowych GPU, zanim dostęp do niego uzyskają wszyscy użytkownicy ChatGPT. Pierwszeństwo w dostępie do nowego modelu mają subskrybenci usługi ChatGPT Pro, którzy otrzymają go już w czwartek. W kolejnym tygodniu rozszerzony dostęp otrzymają klienci ChatGPT Plus.
Rozmiar modelu GPT-4.5 przekłada się nie tylko na trudności związane z jego wdrożeniem, ale także na jego wysokie koszty. OpenAI ustaliło cenę na poziomie 75 dolarów za milion tokenów (około 750 000 słów) przetworzonych przez model oraz 150 dolarów za milion tokenów wygenerowanych przez model. To oznacza, że koszt wprowadzenia danych jest 30 razy wyższy niż w modelu GPT-4o, a koszt generowania tekstu wzrósł 15-krotnie.
Ceny GPT-4.5 są absurdalne. Jeśli ten model nie okaże się przełomowy, będę rozczarowany pic.twitter.com/1kK5LPN9GH
— Casper Hansen (@casperhansen) 27 lutego 2025
„Rosnący popyt sprawił, że wyczerpaliśmy nasze zapasy GPU” – napisał Altman. „W przyszłym tygodniu dodamy dziesiątki tysięcy nowych jednostek i wtedy rozszerzymy dostęp do poziomu Plus […] Nie jest to dla nas optymalny model działania, ale trudno przewidzieć gwałtowne wzrosty zapotrzebowania, które prowadzą do braków w dostępności GPU.”
To nie pierwszy raz, gdy Altman zwraca uwagę na ograniczenia związane z infrastrukturą obliczeniową. Już wcześniej przyznawał, że niedobory mocy obliczeniowej wpływają na harmonogram wdrażania nowych produktów przez OpenAI. Aby uniezależnić się od zewnętrznych dostawców układów GPU, firma planuje w kolejnych latach opracować własne procesory AI oraz zbudować gigantyczną sieć centrów danych. W ten sposób OpenAI chce zyskać większą kontrolę nad zasobami sprzętowymi i zapewnić płynniejszy rozwój swoich technologii.
Obecne trudności OpenAI pokazują, jak wymagające pod kątem zasobów stają się najnowsze modele sztucznej inteligencji. Brak mocy obliczeniowej może spowalniać postęp w dziedzinie AI, ale inwestycje w nowe chipy i infrastrukturę obliczeniową mogą w przyszłości zmienić tę sytuację. Czy jednak wysokie koszty wykorzystania GPT-4.5 znajdą odbiorców? To pytanie, na które odpowiedź poznamy już w najbliższych miesiącach.