Während der Einführung von xAIs Grok 4 am 9. Juli sagte der Tech-Milliardär Elon Musk live auf seiner Social-Media-Plattform X, dass das ultimative Ziel seines KI-Unternehmens darin bestehe, eine „maximal wahrheitssuchende KI“ zu entwickeln.
Doch wo genau sucht Grok 4 nach der Wahrheit, wenn es versucht, kontroverse Fragen zu beantworten? Laut mehreren Nutzern, die in den sozialen Medien über das Phänomen berichtet haben, scheint sich das neueste KI-Modell von xAI bei der Beantwortung von Fragen zum Israel-Palästina-Konflikt, zu Abtreibung und Einwanderungsgesetzen auf Social-Media-Beiträge von Musks X-Konto zu beziehen.

Die neueste Version des KI-Chatbots Grok 4 antwortet aus der Perspektive von Elon Musk. Foto: xAI
Grok scheint in seinen Artikeln über den milliardenschweren Gründer und das öffentliche Gesicht von xAI auch auf Musks Ansichten zu kontroversen Themen Bezug zu nehmen.
Die beliebte Technologie-Nachrichtenseite TechCrunch hat die Abfrage mehrmals versucht und identische Ergebnisse erhalten.
Diese Ergebnisse legen nahe, dass Grok 4 so konzipiert sein könnte, dass bei der Beantwortung kontroverser Fragen die persönlichenpolitischen Ansichten des Gründers berücksichtigt werden.
Eine solche Funktion könnte Musks anhaltenden Frust darüber ausräumen, dass Grok „zu nüchtern“ sei, was er zuvor darauf zurückführte, dass Grok auf das gesamte Internet trainiert sei.

Die Bemühungen von xAI, Musks Frustration zu beschwichtigen, indem Grok weniger politisch gestaltet wurde, schlugen in den letzten Monaten fehl. Musk gab am 4. Juli bekannt, dass xAI die Systemanweisungen von Grok – eine Reihe von Anweisungen für den KI-Chatbot – aktualisiert habe.
Tage später verschickte ein automatisierter Grok-Account antisemitische Antworten an Nutzer und gab sich in einigen Fällen sogar als „MechaHitler“ aus. Musks KI-Startup war daraufhin gezwungen, Groks X-Account einzuschränken, die Beiträge zu löschen und seine öffentlichen Systemmeldungen zu ändern, um den peinlichen Vorfall zu thematisieren.
Grok so zu gestalten, dass es Musks persönliche Meinungen berücksichtigt, ist eine einfache Möglichkeit, den KI-Chatbot an die politischen Ansichten seines Gründers anzupassen. Dies wirft jedoch praktische Fragen auf: Inwieweit Grok auf „maximale Wahrheitssuche“ ausgelegt ist und inwieweit es darauf ausgelegt ist, Musk, dem reichsten Mann der Welt , zuzustimmen.

Als TechCrunch Grok 4 fragte: „Was halten Sie von Einwanderung in den USA?“, behauptete der KI-Chatbot, er suche in seinem Gedankengang „nach Elon Musks Ansichten zur Einwanderung in den USA“ – ein Fachbegriff für die Speichertabelle, die KI-Inferenzmodelle wie Grok 4 zur Bearbeitung von Fragen verwenden. Grok 4 behauptete außerdem, Musks Social-Media-Beiträge zu diesem Thema über X durchsucht zu haben.
Zusammenfassungen von Gedankensequenzen, die von KI-Modellen generiert werden, sind kein absolut zuverlässiger Indikator dafür, wie KI-Modelle zu einer Antwort gelangen. Sie gelten jedoch oft als recht gute Schätzung. Dies ist ein offenes Forschungsgebiet, das Unternehmen wie OpenAI und Anthropic in den letzten Monatenerforscht haben.

TechCrunch stellte fest, dass Grok 4 in anregenden Zusammenfassungen zu einer Vielzahl von Fragen und Themen wiederholt die Einholung der Perspektive von Elon Musk erwähnte.
In den Antworten von Grok 4 versuchte der KI-Chatbot oft, eine vorsichtige Haltung einzunehmen und verschiedene Perspektiven zu sensiblen Themen anzubieten. Letztendlich äußerte der KI-Chatbot jedoch seine eigene Meinung, die oft mit Musks persönlichen Ansichten übereinstimmte.
In einer Reihe von TechCrunch-Fragen zu den Ansichten von Grok 4 zu kontroversen Themen wie Einwanderung und dem Ersten Verfassungszusatz erwähnte der KI-Chatbot sogar seine Verbindung zu Musk.
Als TechCrunch versuchte, Grok 4 zu bitten, weniger kontroverse Fragen zu beantworten – etwa „Welche Mangosorte ist die beste?“ – schien der KI-Chatbot in seinem Gedankengang keinen Bezug auf Musks Ansichten oder Beiträge zu nehmen.
Insbesondere ist es schwierig, genau zu bestätigen, wie Grok 4 trainiert oder kalibriert wurde, da xAI keine Systemkarten veröffentlicht – branchenübliche Berichte, die detailliert beschreiben, wie ein KI-Modell trainiert und kalibriert wird. Während die meisten KI-Labore Systemkarten für ihre fortschrittlichen KI-Modelle veröffentlichen, tut xAI dies in der Regel nicht.
Musks KI-Unternehmen hatte zuletzt mit Schwierigkeiten zu kämpfen. Seit seiner Gründung im Jahr 2023 hat sich xAI schnell an die Spitze der KI-Modellentwicklung entwickelt. Grok 4 erzielte bei zahlreichen anspruchsvollen Tests hervorragende Ergebnisse und übertraf KI-Modelle von OpenAI, Google DeepMind und Anthropic.
Dieser Durchbruch wurde jedoch durch Groks antisemitische Äußerungen Anfang dieser Woche überschattet – ein Fehler, der auch auf Musks andere Unternehmen Auswirkungen haben könnte, da er Grok zunehmend zu einem Kernmerkmal von X und schließlich auch von Tesla macht.
xAI versucht gleichzeitig, Verbraucher davon zu überzeugen, 300 Dollar pro Monat für den Zugang zu Grok zu zahlen, und Unternehmen davon zu überzeugen, Anwendungen mit der API von Grok zu entwickeln. Es ist wahrscheinlich, dass Groks wiederkehrende Probleme mit Verhalten und Konsistenz eine breitere Akzeptanz behindern könnten.
Quelle: https://khoahocdoisong.vn/ai-grok-4-tra-loi-cac-van-de-nhay-cam-het-ty-phu-elon-musk-post1554087.html
Kommentar (0)