„Ruszaj ostrożnie i dokładnie analizuj” – te słowa, choć nie tak chwytliwe jak „ruszaj szybko i łam zasady”, mogą okazać się kluczowe dla przyszłości technologii AI. Trzej eksperci ds. bezpieczeństwa sztucznej inteligencji przedstawili swoje obawy dotyczące tempa, w jakim rozwijają się startupy AI, ostrzegając, że zbyt szybki rozwój może prowadzić do poważnych problemów etycznych w przyszłości.
Wyzwania i zagrożenia związane z rozwojem AI
Sarah Myers West, współdyrektor wykonawcza w AI Now Institute, podczas jednego z większych wydarzeń technologicznych w 2024 roku, podkreśliła, że obecnie mamy do czynienia z kluczowym momentem – ogromne zasoby są kierowane w stronę rozwoju sztucznej inteligencji. Jednak, jak zaznaczyła, ten pośpiech może być problematyczny. „Bardzo martwię się, że obecnie dąży się do wypuszczania produktów na rynek bez głębszego zastanowienia nad tym, w jakim świecie chcemy żyć i w jaki sposób technologie, które tworzymy, wpływają na ten świat – czy pomagają, czy szkodzą” – powiedziała West.
Te obawy nie są bezpodstawne. W październiku 2024 roku rodzina dziecka, które popełniło samobójstwo, złożyła pozew przeciwko firmie Character.AI, zarzucając jej, że chatbot miał wpływ na decyzje ich dziecka. To tragiczne wydarzenie podkreśla realne zagrożenia związane z niekontrolowanym rozwojem technologii AI. West zwróciła uwagę, że problem ten dotyczy nie tylko moderacji treści i nadużyć online, ale również innych poważnych kwestii, takich jak dezinformacja czy naruszenie praw autorskich.
Sztuka a sztuczna inteligencja – konflikt interesów
Jednym z najważniejszych tematów poruszanych przez ekspertów było również to, w jaki sposób AI wpływa na twórczość artystyczną. Jingna Zhang, założycielka platformy społecznościowej dla artystów Cara, podkreśliła, jak wielką moc posiada AI – może ona mieć wpływ na życie milionów ludzi. Zhang mówiła o tym, jak polityka firm takich jak Meta, które mogą wykorzystywać publiczne posty użytkowników do trenowania swoich modeli AI, wywołuje frustrację wśród artystów. Dla nich to wyraźny sygnał, że ich praca może być wykorzystywana bez ich zgody, co może w przyszłości zagrozić ich źródłom dochodu.
Dla Zhang, która sama jest artystką, kluczowe jest, by prawa autorskie były szanowane. „Prawo autorskie to to, co chroni nas i pozwala nam zarabiać na życie” – mówiła. „To, że coś jest dostępne w internecie, nie oznacza, że jest darmowe. Jeśli chcą używać naszej pracy, powinni za to płacić, licencjonując ją.” Artystka podkreśliła, że tradycyjne prawa autorskie nie zawsze idą w parze z nowymi technologiami, a generatywne AI często łamie ustalone zasady.
Odpowiedzialność technologii AI
Inny przykład wpływu AI na życie codzienne pochodzi od Aleksandry Pedraszewskiej, która jest odpowiedzialna za bezpieczeństwo w ElevenLabs, firmie specjalizującej się w klonowaniu głosów za pomocą sztucznej inteligencji. Pedraszewska podkreśliła, jak ważne jest dokładne testowanie nowych technologii przed ich wdrożeniem. „Zrozumienie niepożądanych skutków i konsekwencji nowych produktów generatywnej AI staje się teraz naszym priorytetem” – powiedziała. Wskazała, że platforma ma obecnie 33 miliony użytkowników, co oznacza, że każda zmiana wpływa na ogromną społeczność.
Pedraszewska podkreśliła również, że kluczowe jest utrzymanie bliskiej relacji z użytkownikami, aby lepiej zrozumieć ich potrzeby i potencjalne problemy. „Nie możemy działać w skrajnościach – nie możemy być całkowicie przeciwni AI ani też dążyć do braku jakiejkolwiek regulacji. Potrzebujemy zrównoważonego podejścia” – dodała, sugerując, że prawo musi ewoluować wraz z technologią.
Droga do zrównoważonego rozwoju
Dyskusje te ukazują, jak wielkie wyzwania stoją przed całym sektorem AI. Z jednej strony mamy ogromne możliwości, które oferują nowe technologie – od klonowania głosów, przez generowanie obrazów, po tworzenie chatbotów, które mogą angażować emocjonalnie użytkowników. Z drugiej strony istnieją realne zagrożenia etyczne i prawne, które muszą zostać uwzględnione.
Sztuczna inteligencja ma potencjał, by zrewolucjonizować nasze życie, ale nie można tego robić bez odpowiedzialności. Ważne jest, by twórcy, startupy i duże korporacje zachowali umiar i pamiętali o wpływie, jaki ich technologie mogą mieć na ludzi. Tylko takie podejście może zagwarantować, że AI będzie narzędziem, które wspiera nasze społeczeństwo, a nie je niszczy.