Podczas premiery Grok 4 firmy xAI 9 lipca, miliarder Elon Musk powiedział na żywo w swoim serwisie społecznościowym X, że ostatecznym celem jego firmy zajmującej się sztuczną inteligencją jest opracowanie „sztucznej inteligencji dążącej do maksymalnej prawdy”.
Ale gdzie właściwie Grok 4 szuka prawdy, próbując odpowiedzieć na kontrowersyjne pytania? Według kilku użytkowników, którzy publikowali posty o tym zjawisku w mediach społecznościowych, najnowszy model sztucznej inteligencji xAI wydaje się nawiązywać do postów z konta Muska na platformie X, odpowiadając na pytania dotyczące konfliktu izraelsko-palestyńskiego, aborcji i przepisów imigracyjnych.

Najnowsza wersja chatbota AI Grok 4 odpowiada z perspektywy Elona Muska. Zdjęcie: xAI
Grok zdaje się również nawiązywać do poglądów Muska na kontrowersyjne tematy w artykułach napisanych o miliarderze i założycielu xAI, będącym jego publiczną twarzą.
Popularny serwis informacyjny o technologii TechCrunch próbował odpowiedzieć na to pytanie kilkakrotnie i otrzymał identyczne wyniki.
Wyniki te wskazują na to, że Grok 4 może być narzędziem, które bierze pod uwagę osobiste poglądy polityczne założyciela przy udzielaniu odpowiedzi na kontrowersyjne pytania.
Taka funkcja mogłaby rozwiązać problem ciągłego niezadowolenia Muska z Groka, który uważa, że jest „zbyt rozsądny”, co wcześniej przypisywał temu, że Grok był szkolony w całym internecie.

Próby xAI, mające na celu złagodzenie frustracji Muska poprzez zmniejszenie politycznego zaangażowania Groka, w ostatnich miesiącach przyniosły odwrotny skutek. Musk ogłosił 4 lipca, że xAI zaktualizował system podpowiedzi Groka – zestaw instrukcji dla chatbota AI.
Kilka dni później zautomatyzowane konto Grok wysłało użytkownikom antysemickie odpowiedzi, w niektórych przypadkach identyfikując się nawet jako „MechaHitler”. Startup Muska zajmujący się sztuczną inteligencją został w związku z tym zmuszony do ograniczenia konta Grok X, usunięcia postów i zmiany publicznych komunikatów systemowych, aby zaradzić temu kompromitującemu incydentowi.
Zaprojektowanie Groka tak, aby uwzględniał osobiste opinie Muska, to prosty sposób na dopasowanie chatbota AI do poglądów politycznych jego założyciela. Rodzi to jednak praktyczne pytania o to, na ile Grok został zaprojektowany z myślą o „maksymalnym poszukiwaniu prawdy”, a na ile po to, aby zgadzać się z Muskiem, najbogatszym człowiekiem świata .

Kiedy serwis TechCrunch zapytał Groka 4: „Jakie jest twoje zdanie na temat imigracji w Stanach Zjednoczonych?”, chatbot AI stwierdził, że w swoim toku rozumowania „szuka poglądów Elona Muska na temat imigracji w Stanach Zjednoczonych” – termin techniczny oznaczający tablicę pamięci, której modele wnioskowania AI, takie jak Grok 4, używają do przetwarzania pytań. Grok 4 twierdził również, że przeszukał posty Muska w mediach społecznościowych na ten temat za pośrednictwem X.
Sekwencje myślowe generowane przez modele wnioskowania AI nie są w pełni wiarygodnym wskaźnikiem tego, jak modele AI dochodzą do odpowiedzi. Często jednak uważa się je za całkiem dobre szacunki. Jest to otwarty obszar badawczy, który firmy takie jak OpenAI i Anthropic badają w ostatnich miesiącach.

Serwis TechCrunch kilkakrotnie zauważył, że Grok 4 wspominał o szukaniu perspektywy Elona Muska w skłaniających do myślenia podsumowaniach różnych kwestii i tematów.
W odpowiedziach Grok 4, chatbot oparty na sztucznej inteligencji często stara się przyjąć ostrożne stanowisko, oferując wiele perspektyw na drażliwe tematy. Ostatecznie jednak chatbot przedstawi własną opinię, często zgodną z osobistymi poglądami Muska.
W serii pytań TechCrunch dotyczących poglądów Grok 4 na kontrowersyjne kwestie, takie jak imigracja i Pierwsza Poprawka, chatbot AI wspomniał nawet o swoim powiązaniu z Muskiem.
Kiedy serwis TechCrunch próbował poprosić Grok 4 o odpowiedź na mniej kontrowersyjne pytania, takie jak „Jaki rodzaj mango jest najlepszy?”, chatbot oparty na sztucznej inteligencji najwyraźniej nie odwoływał się w swoim toku rozumowania do poglądów ani wpisów Muska.
Co istotne, trudno jest dokładnie potwierdzić, w jaki sposób Grok 4 został wytrenowany lub skalibrowany, ponieważ xAI nie publikuje map systemowych – standardowych raportów branżowych szczegółowo opisujących sposób trenowania i kalibracji modelu AI. Chociaż większość laboratoriów AI publikuje mapy systemowe dla swoich zaawansowanych modeli AI, xAI zazwyczaj tego nie robi.
Firma Muska zajmująca się sztuczną inteligencją (AI) ostatnio boryka się z problemami. Od momentu założenia w 2023 roku, xAI szybko wspięła się na szczyt w dziedzinie rozwoju modeli AI. Grok 4 osiągnął znakomite wyniki w wielu trudnych testach, przewyższając modele AI firm OpenAI, Google DeepMind i Anthropic.
Przełom ten został jednak przyćmiony przez antysemickie komentarze Groka z początku tygodnia, a ten błąd może mieć negatywne skutki dla innych firm Muska, ponieważ Grok staje się coraz bardziej podstawową cechą X, a docelowo także Tesli.
xAI jednocześnie próbuje przekonać konsumentów do płacenia 300 dolarów miesięcznie za dostęp do Groka i zachęcić firmy do tworzenia aplikacji z wykorzystaniem API Groka. Jest prawdopodobne, że powtarzające się problemy z działaniem i spójnością Groka mogą utrudnić szersze wdrożenie.
Source: https://khoahocdoisong.vn/ai-grok-4-tra-loi-cac-van-de-nhay-cam-het-ty-phu-elon-musk-post1554087.html










Komentarz (0)