Wolfram Research, znany z innowacyjnych podejść do technologii i obliczeń, wkracza w świat generatywnej AI, wprowadzając niezawodność do dużych modeli językowych (LLM), takich jak ChatGPT OpenAI. Firma zauważa, że jednym z głównych problemów z LLMami jest ich tendencja do „halucynacji”, czyli tworzenia fikcyjnych informacji. Statystyki wskazują, że częstotliwość takich błędów waha się od 15 do 27 procent.
Jon McLoone, dyrektor ds. Komunikacji Technicznej i Strategii w Wolfram Research, porównuje to do zachowania osoby, która chce się wydawać mądra, mówiąc cokolwiek, co wydaje się sensowne, niezależnie od tego, czy jest to prawda. Wolfram Research podkreśla, że takie halucynacje są nieuniknione w przypadku LLMów, które zostały zaprojektowane przede wszystkim do płynności i wiarygodności wypowiedzi, a niekoniecznie do podawania prawdziwych odpowiedzi.
Wolfram Research wprowadziło wtyczkę ChatGPT, która ma na celu „uczynienie ChatGPT mądrzejszym poprzez udostępnienie mu zaawansowanych obliczeń, dokładnych danych matematycznych, sprawdzonych informacji, danych w czasie rzeczywistym i wizualizacji”. Wtyczka ta jest również w stanie syntezować kod.
Kiran Raj, kierownik praktyki ds. Technologii Disruptive w GlobalData, podkreśla, że obliczenia kwantowe obiecują nie tylko zwiększoną moc, ale także potencjalnie większe wglądy w mechanizmy AI, otwierając drogę do przekroczenia obecnych możliwości AI.
Wolfram Research zawsze był na stronie technologii obliczeniowej. Jako firma z długą historią w branży, zajmuje się głównie symboliczną stroną AI, która odpowiada przypadkom użycia opartym na logicznym rozumowaniu, w przeciwieństwie do statystycznego AI, które lepiej nadaje się do rozpoznawania wzorców i klasyfikacji obiektów.
Podczas nadchodzącej konferencji AI & Big Data Expo Global w Londynie, McLoone zaprezentuje wtyczkę z przykładami jej użycia. Podkreśla, że istnieje wiele różnorodnych przypadków użycia, które mogą skorzystać z połączenia mistrzostwa ChatGPT w niesktrukturalnym języku i mistrzostwa Wolframa w matematyce obliczeniowej.
McLoone zauważa, że w nadchodzących latach LLMy będą się rozwijać poprzez różne stopniowe ulepszenia, a najlepsze praktyki szkoleniowe przyniosą lepsze wyniki, nie wspominając o potencjalnie większej prędkości dzięki akceleracji sprzętowej.
„Generatywna AI Wolfram Research: Wprowadzanie Niezawodności do Dużych Modeli Językowych”