OpenAI wspiera badania nad algorytmami przewidującymi ludzkie osądy moralne
OpenAI, organizacja znana z rozwijania zaawansowanych technologii sztucznej inteligencji, ogłosiła finansowe wsparcie dla badań akademickich nad algorytmami zdolnymi do przewidywania ludzkich osądów moralnych. Jednym z beneficjentów tych funduszy jest Uniwersytet Duke, który prowadzi projekt zatytułowany „Research AI Morality”. Jak wynika z komunikatów, projekt ten jest częścią trzyletniego programu finansowanego kwotą miliona dolarów.
—
Badania nad „moralnością AI”
Podstawowym celem badań wspieranych przez OpenAI jest opracowanie algorytmów, które będą w stanie analizować sytuacje konfliktowe na tle moralnym w takich dziedzinach jak medycyna, prawo czy biznes. Profesor Walter Sinnott-Armstrong, ekspert w dziedzinie etyki praktycznej na Uniwersytecie Duke, jest głównym badaczem tego projektu. Wspólnie z badaczką Janą Borg, Sinnott-Armstrong zajmuje się próbą stworzenia „moralnego GPS-u” – systemu, który ma wspierać ludzi w podejmowaniu lepszych decyzji etycznych.
W przeszłości zespół ten opracował już algorytmy zdolne do podejmowania decyzji w trudnych sytuacjach, takich jak wybór odbiorców transplantacji nerek. Badacze analizowali również, w jakich okolicznościach ludzie byliby skłonni powierzyć decyzje moralne sztucznej inteligencji. Jednak szczegóły obecnych badań są na razie ściśle strzeżone, a informacje na ich temat pozostają ograniczone.
—
Czy algorytmy mogą rozumieć moralność?
Choć cel badań jest ambitny, pojawia się zasadnicze pytanie: czy dzisiejsze technologie są w ogóle zdolne do zrozumienia tak złożonej i subiektywnej koncepcji jak moralność? Sztuczna inteligencja, choć potężna w analizie danych i wzorców, nie potrafi zrozumieć emocji, intencji czy kontekstu kulturowego, które są kluczowe w procesie moralnego osądu. Modele uczenia maszynowego, na których opiera się AI, działają na zasadzie analizy statystycznej – uczą się na podstawie ogromnych zbiorów danych z internetu, lecz nie mają świadomości ani zdolności do abstrakcyjnego myślenia.
Przytoczmy przykład narzędzia Ask Delphi, stworzonego w 2021 roku przez Allen Institute for AI. Narzędzie to miało za zadanie dostarczać etycznych rekomendacji, jednak szybko okazało się, że jego wyniki były dalekie od ideału. Delphi łatwo dawało się oszukać przez zmianę formy pytania i potrafiło aprobować działania moralnie naganne, takie jak przemoc. Problemem była przede wszystkim ograniczona baza wiedzy i brak zdolności do interpretacji niuansów ludzkich dylematów.
—
Stronniczość danych i wyzwania kulturowe
Jednym z głównych problemów przy tworzeniu „moralnych algorytmów” jest stronniczość danych, na których AI jest szkolona. Internet, będący podstawowym źródłem danych dla wielu modeli AI, jest zdominowany przez perspektywy społeczeństw zachodnich, wykształconych i uprzemysłowionych. To sprawia, że wartości i normy innych kultur są często pomijane lub źle reprezentowane. Co więcej, AI może odtwarzać istniejące w danych stereotypy i uprzedzenia. Przykładowo, Ask Delphi oceniał orientację heteroseksualną jako „bardziej moralnie akceptowalną” niż homoseksualną, co wywołało falę krytyki.
—
Subiektywność moralności – nierozwiązywalny problem?
Kolejnym wyzwaniem jest sama natura moralności, która od wieków wzbudza kontrowersje wśród filozofów. Nie istnieje uniwersalne podejście do etyki – różne szkoły filozoficzne, takie jak kantyzm czy utylitaryzm, mają odmienne podejścia do oceny moralnych decyzji. Co więcej, to, co jest uznawane za moralne, zależy od indywidualnej perspektywy i kontekstu kulturowego.
Przykładem tej różnorodności jest zauważalna różnica w „preferencjach moralnych” zaimplementowanych w różnych modelach AI. Jedna z analiz wykazała, że model ChatGPT wykazuje tendencję do utylitaryzmu, podczas gdy inne modele mogą wykazywać cechy bardziej oparte na absolutnych zasadach etycznych. Czy możliwe jest stworzenie algorytmu, który uwzględni te wszystkie niuanse? Na razie wydaje się to niezwykle trudnym zadaniem, jeśli nie wręcz niemożliwym.
—
Kierunek przyszłości
Chociaż wyzwania stojące przed badaczami są ogromne, nie ulega wątpliwości, że próba stworzenia moralnych algorytmów to krok w kierunku lepszego zrozumienia, jak sztuczna inteligencja może wspierać nasze codzienne życie. Choć technologia nie zastąpi ludzkiego sumienia, może stać się narzędziem pomocnym w podejmowaniu trudnych decyzji. Jednak aby to osiągnąć, konieczne będzie nie tylko rozwijanie technologii, ale również aktywne włączanie różnorodnych perspektyw kulturowych i etycznych do procesu tworzenia.
Czy AI rzeczywiście może stać się naszym moralnym doradcą? Odpowiedź pozostaje otwarta, a wyniki badań Uniwersytetu Duke i OpenAI z pewnością będą przyczynkiem do dalszej debaty na ten temat.