OpenAI ogłosił w środę wieloletnie porozumienie z producentem układów dla AI, firmą Cerebras. Zgodnie z komunikatem Cerebras, od tego roku aż do 2028 r. dostarczy dla OpenAI 750 megawatów mocy obliczeniowej, co ma wspierać obsługę systemów sztucznej inteligencji.
Źródła zaznajomione ze sprawą przekazały, że wartość umowy przekracza 10 mld USD (ok. 42 mld zł). Informację o wielkości transakcji potwierdził także Reuters.
Obie firmy podkreślają, że celem porozumienia jest przyspieszenie odpowiedzi generowanych przez systemy OpenAI, zwłaszcza tam, gdzie obecnie przetwarzanie zajmuje więcej czasu. OpenAI wskazał w poście na blogu, że wdrażane rozwiązania przyspieszą operacje wymagające dłuższego czasu przetwarzania, co ma przełożyć się na krótsze opóźnienia i płynniejsze interakcje z modelami. Andrew Feldman, współzałożyciel i CEO Cerebras, porównał potencjalny wpływ do transformacji sieci, mówiąc, że „tak jak szerokopasmowy internet przekształcił internet, tak inferencja w czasie rzeczywistym przekształci AI”.
Cerebras istnieje od ponad dekady, lecz jej rola w branży znacznie wzrosła po pojawieniu się ChatGPT w 2022 r. Firma promuje swoje systemy oparte na autorskich układach przeznaczonych do zadań AI jako szybsze od rozwiązań opartych na procesorach graficznych (GPU), takich jak te oferowane przez Nvidię.
W 2024 r. Cerebras złożył dokumenty w związku z planowanym wejściem na giełdę (IPO), jednak termin debiutu był kilkukrotnie przesuwany. Mimo to spółka kontynuuje pozyskiwanie znacznego kapitału; w komunikatach prasowych informowała o kolejnych rundach finansowania. We wtorek pojawiły się doniesienia, że Cerebras prowadzi rozmowy o pozyskaniu kolejnego 1 mld USD (ok. 4,2 mld zł) przy wycenie około 22 mld USD (ok. 92,4 mld zł).
Warto też zauważyć powiązania między firmami: Sam Altman, CEO OpenAI, jest inwestorem w Cerebras, a wcześniej OpenAI rozważał nawet przejęcie tego producenta układów.
W komunikacie OpenAI przedstawiciel firmy, Sachin Katti, opisał strategię obliczeniową organizacji jako budowanie odpornego portfela rozwiązań, dopasowujących odpowiednie systemy do konkretnych zadań. „Cerebras wprowadza dedykowane rozwiązanie do niskoopóźnieniowej inferencji na naszą platformę. To oznacza szybsze odpowiedzi, bardziej naturalne interakcje oraz silniejszą podstawę do skalowania AI w czasie rzeczywistym dla znacznie większej liczby użytkowników” — napisał Katti.
W praktyce porozumienie ma więc z jednej strony zwiększyć surowe zasoby obliczeniowe dostępne dla OpenAI, a z drugiej — skrócić czas odpowiedzi modeli AI, co jest kluczowe dla zastosowań wymagających interakcji w czasie rzeczywistym. Dla użytkowników i klientów OpenAI powinno to przełożyć się na szybsze i bardziej naturalne doświadczenia podczas korzystania z usług opartych na sztucznej inteligencji.