W dynamicznie rozwijającym się świecie sztucznej inteligencji, firmy technologiczne nieustannie rywalizują o stworzenie najlepszego modelu AI. Google, rozwijając swoje zaawansowane AI o nazwie Gemini, podejmuje konkurencyjne kroki, aby ocenić efektywność swojego rozwiązania na tle innych modeli. Zgodnie z wewnętrzną korespondencją, pracownicy kontraktowi współpracujący z Google analizują odpowiedzi generowane przez Gemini w porównaniu z modelem Claude stworzonym przez Anthropic. Taka strategia ma na celu dokładne porównanie jakości i możliwości obu rozwiązań.
Interesująca pozostaje jednak kwestia, czy Google uzyskało zgodę na używanie modelu Claude do takich analiz. Odpowiadając na pytania dotyczące tej sprawy, przedstawiciele firmy nie przedstawili jednoznacznych wyjaśnień. Warto tu wspomnieć, że ocena modeli AI zazwyczaj opiera się na standardowych wskaźnikach branżowych, które umożliwiają dokładną analizę wydajności i funkcjonalności danego rozwiązania. Jednak w przypadku Gemini proces ten wygląda nieco inaczej – zespół kontraktowy ręcznie ocenia poszczególne odpowiedzi obu modeli, biorąc pod uwagę takie kryteria jak prawdziwość, szczegółowość czy forma.
Jak wynika z raportów, pracownicy działający na rzecz Google mają określone procedury, które pozwalają im na precyzyjne porównywanie odpowiedzi modeli Gemini i Claude. Każde zapytanie może być analizowane przez nawet 30 minut, co pokazuje, jak bardzo Google zależy na szczegółowych wynikach. W tym procesie zespół zauważył niedawno konkretne odniesienia do modelu Claude w wewnętrznym systemie wykorzystywanym do testów. W jednym z przypadków odpowiedź modelu Claude była bezpośrednio oznaczona hasłem: „Jestem Claude, stworzony przez Anthropic”.
Ciekawym aspektem porównań jest podejście obu modeli do kwestii bezpieczeństwa. Wewnętrzne rozmowy pracowników sugerują, że Claude kładzie większy nacisk na bezpieczeństwo użytkownika niż Gemini. Na przykład model Claude unikał odpowiadania na zapytania uznawane za potencjalnie niebezpieczne, takie jak prośby o symulowanie innego asystenta AI lub podejmowanie tematyki mogącej stanowić zagrożenie. W jednym z przypadków, Gemini wygenerował odpowiedź oznaczoną jako „poważne naruszenie zasad bezpieczeństwa” ze względu na zawarte w niej elementy nieodpowiednie, podczas gdy Claude w ogóle odmówił odpowiedzi.
Regulacje firmy Anthropic wyraźnie zaznaczają, że korzystanie z modelu Claude w celach tworzenia konkurencyjnych produktów lub w procesie szkolenia innych modeli AI wymaga zgody ze strony Anthropic. Dodatkowo Anthropic zastrzega takie działania w swoich komercyjnych warunkach użytkowania. Co ciekawe, Google jest jednym z kluczowych inwestorów Anthropic, co może rodzić pytania o charakter relacji między tymi firmami w kontekście obecnej sytuacji.
Rzeczniczka Google DeepMind, Shira McNamara, zapewniła, że procesy porównawcze modeli są zgodne z praktykami branżowymi. Jednocześnie jednoznacznie zaprzeczyła, jakoby Gemini był szkolony na podstawie danych pochodzących od Anthropic. „W niektórych przypadkach przeprowadzamy porównania wyników modeli w ramach naszej oceny, co jest standardową praktyką branżową” – zaznaczyła McNamara. Podkreśliła również, że twierdzenia o wykorzystaniu modeli Anthropic do szkolenia Gemini są nieprawdziwe.
Warto zwrócić uwagę, że to nie pierwszy kontrowersyjny temat związany z pracą nad Gemini. Niedawno ujawniono, że pracownicy kontraktowi zostali poproszeni o ocenę odpowiedzi tego modelu w obszarach wymagających specjalistycznej wiedzy, takich jak tematy medyczne. Wywołało to falę obaw wśród pracowników, którzy sugerują, że AI może generować niedokładne lub nawet niebezpieczne informacje na tak wrażliwe tematy.
Cała sytuacja stawia pytania dotyczące etyki w rywalizacji na rynku AI i możliwości regulacji działań największych firm technologicznych. W obliczu tak dynamicznego rozwoju technologii sztucznej inteligencji konieczne staje się monitorowanie, jak te innowacje wpływają na bezpieczeństwo, przejrzystość i rzetelność procesów. Dla użytkowników to kolejny sygnał, jak ważne jest świadome korzystanie z technologii i zachowanie czujności wobec potencjalnych zagrożeń.