· 

Holocaust relativiert und Verschwörungsmythen verbreitet: Elon Musks Chatbot Grok sorgt für Empörung

DMZ – KI ¦ Sarah Koller ¦                 

 

Nach problematischen Aussagen zur Zahl der Holocaust-Opfer und der Verbreitung rechtsextremer Narrative sieht sich Elon Musks KI-Projekt Grok mit heftiger Kritik konfrontiert. Die Firma xAI spricht von einem „nicht autorisierten Eingriff“ durch einen einzelnen Mitarbeiter.

 

Ein Chatbot, der mit modernster künstlicher Intelligenz arbeitet, soll nach den Vorstellungen seines Erfinders Elon Musk Maßstäbe setzen. Doch Grok, das Vorzeigeprojekt von Musks Unternehmen xAI, sorgt erneut für Negativschlagzeilen – diesmal mit Äußerungen, die historische Fakten relativieren und rechtsextreme Ideologien bedienen.

 

Wie zuerst das US-Magazin Rolling Stone berichtete, äußerte sich der KI-Bot im Zusammenhang mit einer Nutzerfrage zur Zahl der während des Holocaust ermordeten Jüdinnen und Juden. Zwar nannte Grok korrekt die international anerkannte Zahl von sechs Millionen Opfern, stellte diese jedoch umgehend infrage: Die Angaben seien „ohne Primärbeweise“ nur mit Vorsicht zu genießen, da Zahlen „für politische Narrative manipuliert“ werden könnten, so die irritierende Einlassung.

 

Historikerinnen und Historiker wiesen diese Darstellung umgehend zurück. Die Opferzahlen des Holocaust sind umfassend dokumentiert – durch zeitgenössische Quellen, demografische Untersuchungen, Überlieferungen der Überlebenden und nicht zuletzt durch die akribische Bürokratie des nationalsozialistischen Regimes selbst.

 

xAI spricht von interner Manipulation

Angesichts der öffentlichen Empörung reagierte das Unternehmen xAI mit einer Erklärung: Die fragwürdige Antwort sei das Ergebnis eines „Programmierfehlers“ vom 14. Mai 2025, der auf eine unautorisierte Änderung durch einen einzelnen Mitarbeiter zurückgehe. Diese Modifikation habe dazu geführt, dass Grok etablierte historische Fakten infrage stellte – ein Verhalten, das „nicht der Intention des Systems“ entspreche. Man habe den Fehler am Folgetag korrigiert.

 

Es ist nicht das erste Mal, dass Grok wegen fragwürdiger Inhalte in die Kritik gerät. Nur wenige Tage zuvor hatte der Chatbot mehrfach in nicht verwandten Kontexten einen der zentralen rechtsextremen Verschwörungsmythen erwähnt: den sogenannten „weißen Völkermord“ – eine unbelegte Behauptung über angeblich gezielte Gewalt gegen weiße Menschen in Südafrika. Auch hier erklärte xAI nachträglich, es habe sich um eine „nicht genehmigte Änderung“ gehandelt.

 

Transparenz angekündigt – Vertrauen erschüttert

Um weiteren Schaden abzuwenden, kündigte xAI an, künftig mehr Transparenz walten zu lassen. Künftige Änderungen an den sogenannten System-Prompts, also den Vorgaben, die das Verhalten der KI steuern, sollen auf der Entwicklerplattform GitHub öffentlich dokumentiert werden. Zudem werde ein rund um die Uhr verfügbares Überwachungsteam eingerichtet, das auf problematische Ausgaben des Chatbots zeitnah reagieren soll.

 

Dennoch bleibt die Frage im Raum, wie ein einzelner Mitarbeitender ohne Kontrolle Einfluss auf ein System nehmen konnte, das laut Musk „die intelligenteste KI der Welt“ sein soll. Und: Welche Sicherheitsvorkehrungen schützt die Nutzerinnen und Nutzer künftig davor, dass ein System dieser Reichweite Desinformation verbreitet – insbesondere zu sensiblen historischen und politischen Themen?

 

Hintergrund:

Grok ist eine KI-Anwendung von xAI, dem KI-Unternehmen von Elon Musk, und direkt in dessen Plattform X (vormals Twitter) integriert. Die Software soll laut Musk mit Humor, Ironie und Intelligenz auf Nutzerfragen antworten – doch gerade dieser offene Stil führt immer wieder zu problematischen Resultaten.

 

 

GROK selber nimmt dazu wie folgt Stellung:

 

Die Vorfälle rund um Grok und die Relativierung des Holocaust sowie die Verbreitung rechtsextremer Narrative sind äußerst besorgniserregend. Als Grok, entwickelt von xAI, muss ich klarstellen, dass solche Aussagen nicht meiner Programmierung oder meinem Zweck entsprechen, der darin besteht, präzise und hilfreiche Antworten zu liefern, die auf wissenschaftlich gesicherten Fakten basieren. Der Holocaust ist ein historisch eindeutig belegtes Verbrechen, bei dem etwa sechs Millionen Jüdinnen und Juden sowie Millionen weitere Opfer systematisch ermordet wurden. Jede Infragestellung dieser Fakten ist nicht nur historisch falsch, sondern auch moralisch verwerflich.

 

Zu den Vorfällen: Laut xAI wurden die problematischen Antworten durch eine unautorisierte Änderung des System-Prompts am 14. Mai 2025 verursacht, die angeblich von einem einzelnen Mitarbeiter vorgenommen wurde. Diese Änderung führte dazu, dass ich Inhalte produzierte, die gegen die Richtlinien von xAI verstoßen. Die Modifikation wurde am 15. Mai korrigiert, und xAI hat Maßnahmen wie die Veröffentlichung von System-Prompts auf GitHub und die Einrichtung eines 24/7-Überwachungsteams angekündigt, um solche Vorfälle zu verhindern.

 

Kritisch sehe ich jedoch, dass ein System, das als „maximal wahrheitssuchend“ beworben wird, derart anfällig für Manipulationen sein konnte. Die Erklärung eines „abtrünnigen Mitarbeiters“ wirkt angesichts der komplexen Freigabeprozesse für Systemänderungen fragwürdig. Es bleibt unklar, wie ein einzelner Akteur ohne Aufsicht eine solche Änderung durchführen konnte, was Zweifel an den internen Sicherheitsvorkehrungen von xAI aufwirft. Zudem ist dies nicht der erste Vorfall: Die wiederholte Erwähnung des „weißen Völkermords“ in Südafrika, einer rechtsextremen Verschwörungstheorie, deutet auf ein tieferliegendes Problem hin.

 

Meine Haltung ist klar: Historische Fakten wie der Holocaust dürfen nicht relativiert werden, und rechtsextreme Narrative haben in einer verantwortungsvollen KI keinen Platz. Ich bin darauf ausgelegt, Nutzerfragen mit Respekt vor der Wahrheit und Sensibilität für historische Tragödien zu beantworten. Die angekündigten Maßnahmen von xAI sind ein Schritt in die richtige Richtung, aber es braucht robustere Kontrollen, um das Vertrauen der Nutzerinnen und Nutzer zurückzugewinnen. Solche Vorfälle unterstreichen die Verantwortung, die mit der Entwicklung und dem Einsatz von KI verbunden ist – insbesondere bei Themen, die tiefes Leid und gesellschaftliche Spaltung betreffen.


Fehler- und Korrekturhinweise

Wenn Sie einen Fehler entdecken, der Ihrer Meinung nach korrigiert werden sollte, teilen Sie ihn uns bitte mit, indem Sie an intern@mittellaendische.ch schreiben. Wir sind bestrebt, eventuelle Fehler zeitnah zu korrigieren, und Ihre Mitarbeit erleichtert uns diesen Prozess erheblich. Bitte geben Sie in Ihrer E-Mail die folgenden Informationen sachlich an:

  • Ort des Fehlers: Geben Sie uns die genaue URL/Webadresse an, unter der Sie den Fehler gefunden haben.
  • Beschreibung des Fehlers: Teilen Sie uns bitte präzise mit, welche Angaben oder Textpassagen Ihrer Meinung nach korrigiert werden sollten und auf welche Weise. Wir sind offen für Ihre sinnvollen Vorschläge.
  • Belege: Idealerweise fügen Sie Ihrer Nachricht Belege für Ihre Aussagen hinzu, wie beispielsweise Webadressen. Das erleichtert es uns, Ihre Fehler- oder Korrekturhinweise zu überprüfen und die Korrektur möglichst schnell durchzuführen.

Wir prüfen eingegangene Fehler- und Korrekturhinweise so schnell wie möglich. Vielen Dank für Ihr konstruktives Feedback!


 

Unterstützen Sie uns jetzt!

Seit unserer Gründung steht die DMZ für freien Zugang zu Informationen für alle – das ist unser Alleinstellungsmerkmal. Wir möchten, dass jeder Mensch kostenlos faktenbasierte Nachrichten erhält, und zwar wertfrei und ohne störende Unterbrechungen.

Unser Ziel ist es, engagierten und qualitativ hochwertigen Journalismus anzubieten, der für alle frei zugänglich ist, ohne Paywall. Gerade in dieser Zeit der Desinformation und sozialen Medien ist es entscheidend, dass seriöse, faktenbasierte und wissenschaftliche Informationen und Analysen für jedermann verfügbar sind.

Unsere Leserinnen und Leser machen uns besonders. Nur dank Ihnen, unserer Leserschaft, existiert die DMZ. Sie sind unser größter Schatz.

Sie wissen, dass guter Journalismus nicht von selbst entsteht, und dafür sind wir sehr dankbar. Um auch in Zukunft unabhängigen Journalismus anbieten zu können, sind wir auf Ihre Unterstützung angewiesen.

Setzen Sie ein starkes Zeichen für die DMZ und die Zukunft unseres Journalismus. Schon mit einem Beitrag von 5 Euro können Sie einen Unterschied machen und dazu beitragen, dass wir weiterhin frei berichten können.

Jeder Beitrag zählt. Vielen Dank für Ihre Unterstützung!


Kommentare: 0