Portal AI News przeprowadził wywiad z Victorem Jakubiukiem, Szefem Działu AI w Ampere Computing, firmie półprzewodnikowej oferującej procesory do chmury. Dyskutowaliśmy o tym, jak firma wprowadza wysokowydajne, skalowalne i energooszczędne rozwiązania przeznaczone dla zrównoważonej chmury.
W dzisiejszym krajobrazie biznesowym sztuczna inteligencja (AI) stała się niezaprzeczalnym czynnikiem zmian, napędzającym innowacje i konkurencyjność we wszystkich branżach. Jednak ostatnio pojawiła się istotna przeszkoda, gdy firmy szybko przechodzą na procesy natywne dla chmury: poważny brak serwerów i rosnące koszty operacyjne.
Ze względu na rosnące zapotrzebowanie na moc obliczeniową, które zagraża płynnej integracji inicjatyw opartych na AI, firmy stają obecnie przed pilnym zadaniem znalezienia innowacyjnych, przystępnych cenowo i znacznie bardziej zrównoważonych rozwiązań, aby sprostać temu brakowi – brakowi, który ma się tylko nasilić.
Wpływ na środowisko jest również powodem do niepokoju. Nowe badanie ujawnia, że do 2027 roku przemysł AI może zużywać tyle energii, co kraj taki jak Argentyna, Holandia czy Szwecja. Z uwagi na energochłonne jednostki przetwarzające grafikę (GPU), popularny wybór dla obciążeń związanych z AI, zużycie energii i ślad węglowy osiągnęły niespotykane dotąd poziomy.
W miarę skalowania cyfrowego śladu przez firmy, imperatyw zrównoważenia staje się coraz ważniejszy. Środowiskowy wpływ energochłonnego sprzętu stanowi moralne i praktyczne wyzwanie, wymagające rozwiązań, które pogodzą wydajność z odpowiedzialnym wykorzystaniem zasobów.
„Efektywność jest kluczowa w przyszłości komputacji,” wyjaśnia Jakubiuk. „Podczas gdy wszechświat obliczeń i danych rozszerza się w sposób wykładniczy, skupienie na efektywności energetycznej poszczególnych zadań znacząco rośnie.”
„Historycznie, GPU były wybierane do trenowania modeli AI ze względu na ich moc obliczeniową. Jednak są one energochłonne i nieefektywne dla produkcji,” mówi. „Wdrażanie GPU do wnioskowania przenosi te nieskuteczności, zwiększając moc, koszty i złożoność operacyjną.”
Jest to szczególnie zauważalne, gdy procesy się skalują, ostrzega. Chociaż trening AI wymaga dużych ilości mocy obliczeniowej na początku, wnioskowanie AI może wymagać nawet do 10 razy więcej całkowitej mocy obliczeniowej w czasie, tworząc jeszcze większy problem wraz ze skalowaniem wykorzystania AI.
Ampere Computing stawia sobie za cel dostarczanie rozwiązań, które spełnią te potrzeby. „Skupiamy się wyłącznie na efektywnym wnioskowaniu AI na mniej energochłonnych jednostkach centralnych (CPU), dostarczając niezrównanej efektywności i opłacalności w chmurze,” mówi Jakubiuk. „Nasze rozwiązania sprzętowe i programowe oferują płynne przejście bez konieczności przebudowy istniejących frameworków, wyróżniając nas od zamkniętych alternatyw.”
„Nasze oprogramowanie, kompatybilne ze wszystkimi otwartymi frameworkami, umożliwia świadome obliczenia bez potrzeby obszernego przepisywania, w przeciwieństwie do systemów własnościowych,” mówi, zauważając, że Procesory Ampere Cloud Native są dostępne u wszystkich głównych dostawców chmury, takich jak Oracle Cloud, Google Cloud i Microsoft Azure, a także w Scaleway wśród europejskich CSP.
Obciążenia AI dziś dzielą się na cztery kategorie: wizja komputerowa, NLP, silniki rekomendacji i generatywna AI. Kombinacja oprogramowania i sprzętu Ampere Computing bezproblemowo obsługuje wszystkie te obciążenia dla zrównoważonych wdrożeń AI na dużą skalę.
„AI, będąc technologią poziomą, znajduje zastosowanie w różnych branżach, od konserwatywnych sektorów, takich jak finanse, po innowacyjne dziedziny, takie jak samodzielnie prowadzące samochody. Wszechstronność rozwiązań Ampere odpowiada szerokiemu spektrum aplikacji opartych na chmurze.”
Ampere jest również jednym z założycieli niedawno uruchomionego The AI Platform Alliance, utworzonego specjalnie w celu promowania lepszej współpracy i otwartości w dziedzinie AI, w kluczowym momencie nie tylko dla branży technologicznej, ale także dla całego świata.
Ponieważ wdrożenia rozwiązań AI mogą być skomplikowane, AI Platform Alliance będzie współpracować, aby zweryfikować wspólne rozwiązania AI, które stanowią lepszą alternatywę niż status quo oparte na GPU.
Rozwijając te rozwiązania jako wspólnota, ta grupa przyspieszy tempo innowacji AI, czyniąc platformy AI bardziej otwartymi i przejrzystymi, zwiększając efektywność AI w rozwiązywaniu realnych problemów i dostarczając zrównoważoną infrastrukturę na dużą skalę, która jest przyjazna dla środowiska i społecznie odpowiedzialna.
„Jesteśmy na czele, aktywnie opowiadając się za większą efektywnością w AI i poza nią,” mówi Jakubiuk, który będzie mówcą na nadchodzącym wydarzeniu AI & Big Data Expo Global w Londynie, 30 listopada – 1 grudnia.
Patrząc w przyszłość, Jakubiuk wyobraża sobie przyszłość, w której dominuje efektywność. „Przyszłość komputacji leży w większej efektywności energetycznej. Naszym nieustannym celem jest napędzanie efektywności w różnych zadaniach, popychając świat w kierunku większej skuteczności,” stwierdza. Przyszłość wygląda jasno, ponieważ firma nadal dąży do umożliwienia zrównoważonej chmury, jeden ładunek pracy na raz.