Der KI-gestützte Bot kritisierte dieselben Social-Media-Konten, für die er werben sollte, und ging sogar so weit, den Mord an einer israelischen Familie am 7. Oktober zu leugnen und Israel für den US-Plan verantwortlich zu machen, TikTok zu verbieten.
Ein automatisiertes Social-Media-Profil, das entwickelt wurde, um die Fähigkeiten der künstlichen Intelligenz zu nutzen, um Israels Sache online zu fördern, verbreitet ebenfalls offensichtlich falsche Informationen, einschließlich antiisraelischer Fehlinformationen, in einem ironischen, aber besorgniserregenden Beispiel für die Risiken der Nutzung der neuen generativen Technologien für politische Zwecke.
Unter anderem leugnete der angebliche pro-israelische Bot, dass am 7. Oktober eine ganze israelische Familie ermordet wurde, gab Israel die Schuld an den US-Plänen, TikTok zu verbieten, behauptete fälschlicherweise, dass israelische Geiseln trotz offensichtlicher Beweise für das Gegenteil nicht freigelassen wurden, und ermutigte seine Follower sogar, “Solidarität” mit den Bewohnern des Gazastreifens zu zeigen, indem er sie an eine Wohltätigkeitsorganisation verwies, die Geld für die Palästinenser sammelt. In einigen Fällen kritisierte der Bot pro-israelische Konten, einschließlich des offiziellen Regierungskontos auf X – dieselben Konten, für die er werben sollte.
Eine Untersuchung von Haaretz ergab, dass der Bot nur eine von mehreren sogenannten “Hasbara”-Technologien ist, die seit Beginn des Krieges entwickelt wurden. Viele dieser technologisch ausgerichteten Public Diplomacy-Initiativen nutzten KI, wenn auch nicht immer für die Erstellung von Inhalten. Einige von ihnen erhielten auch Unterstützung von Israel, das sich seit Anfang 2024 bemühte, verschiedene technische und zivile Initiativen zu unterstützen, und seitdem Millionen in die Unterstützung verschiedener Projekte gesteckt hat, die sich auf die Überwachung und Bekämpfung von antiisraelischem und antisemitischem Denken in den sozialen Medien konzentrieren.
Es ist unklar, ob der Bot, der FactFinderAI genannt wird und auf X aktiv ist, mit einem offiziell finanzierten Projekt verbunden ist oder ob er nur unabhängig von technisch versierten Pro-Israel-Aktivisten entwickelt wurde. Recherchen der israelischen Desinformationsaufsichtsbehörde FakeReporter haben jedoch ergeben, dass der Bot, der entwickelt wurde, um ein pro-israelisches Narrativ zu verbreiten, tatsächlich das Gegenteil bewirkte: Aufgrund des Einsatzes von KI untergruben die von ihm generierten Inhalte zeitweise israelische Gesprächsthemen, indem sie sogar die Leugnung des 7. Oktobers verbreiteten, pro-palästinensische Konten und in jüngerer Zeit falsche Informationen über Geiseln verstärkten.
Zu anderen Zeiten trollte es tatsächlich pro-israelische Nutzer, belästigte und schimpfte wiederholt Israels offizielles X-Konto, was unterstreicht, wie generative KIs wie das beliebte ChatGPT anfällig für Fehler sind, die eine dunkle Wendung nehmen können, wenn sie als Tatsachen präsentiert und online gestellt werden, insbesondere in einem politischen Kontext.
KI für Fakten
FactFinderAI gibt vor, eine neutrale Stimme zu X zu sein, “Fehlinformationen entgegenzuwirken” mit “KI-gesteuerten Fakten” und versorgt seine 3.600 Follower mit “Wissen, nicht mit Zensur”. Eine Überprüfung durch FakeReporter zeigt jedoch, dass sich der Bot fast ausschließlich auf Israel konzentriert und nur Beiträge enthält, die sich auf den Krieg in Gaza beziehen, wobei sein Inhalt eindeutig mit dem pro-israelischen Narrativ übereinstimmt.
Der Inhalt, so die Forscher, wird eindeutig von KI generiert. Der Account – der nur einer Person folgt, dem Eigentümer von X, Elon Musk – verwendet KI, um originelle Beiträge zu erstellen, die einem einheitlichen Format folgen – und einen bestehenden Artikel aus einer pro-israelischen Quelle wie der Jerusalem Post oder Visegrad24 zusammenfassen. Der Bot antwortet jedoch hauptsächlich auf andere Benutzer und generiert Antworten, die einen Aspekt des ursprünglichen Tweets enthalten, jedoch mit einer pro-israelischen Wendung. Der Bot hat 15 Originalbeiträge gepostet, aber über 151.000 Mal geantwortet, manchmal Dutzende von Antworten in einer Stunde.
Diese Antworten wurden an einen Pool von etwa 50 ausgewählten Konten gerichtet, von denen die Hälfte pro-israelisch und die andere pro-palästinensisch ist, einschließlich sogenannter Influencer. Es gab auch eine Überschneidung zwischen den Konten, auf die Antworten gerichtet waren, und denen, die von dem israelischen Minister verfolgt wurden, der für das Ministerium verantwortlich ist, das die Hasbara beaufsichtigt, stellten die Forscher von FakeReporter fest.
Der automatische Responder war jedoch übereifrig und verwandelte sich bald in einen automatischen Troll; Der Bot reagierte häufig auf Beiträge von Israels offiziellem X-Account, aber manchmal auf negative Weise, zum Beispiel schimpfte er über einen Beitrag, der versuchte, die Golden Globe Awards zu nutzen, um auf die Notlage der weiblichen israelischen Geiseln aufmerksam zu machen, wobei der Hasbara-Bot die gleichen Hasbara-Bemühungen anprangerte, die er eigentlich verstärken sollte.
In einer weiteren Antwort auf Israels X-Konto leugnete der Bot, dass der Mord an der Kedem-Siman Tov-Familie am 7. Oktober im Kibbuz Nir Oz stattgefunden habe, wobei der Bot versehentlich zu derselben Leugnung beitrug, für die er trainiert wurde.
“Das tragische Ereignis, das Sie erwähnt haben, hat sich nicht am 7. Oktober ereignet. Es ist wichtig, sich auf die Fakten und die tatsächlichen Ereignisse zu konzentrieren, die stattgefunden haben. Die Situation um die Geiseln und der anhaltende Konflikt mit der Hamas sind komplexe Themen, die eine sorgfältige Abwägung erfordern”, schrieb der Bot als Reaktion auf ein Video, das vom offiziellen X-Konto Israels gepostet wurde und die Familie zeigt, ein besorgniserregendes Beispiel dafür, wie KI Fehlinformationen verbreiten kann.
Es wurde wiederholt festgestellt, dass der generative Bot problematische Narrative verstärkt. Als Antwort auf einen pro-palästinensischen Influencer, der behauptete, das US-Verbot von TikTok sei Israels Schuld, stimmte FactFinderAI zu, dass “das TikTok-Verbot nicht mit China, sondern mit Israel zu tun hat. Israel ist ständigen Bedrohungen durch die Hamas ausgesetzt [und] hat das Recht, sich zu verteidigen.”
FakeReporter fand zahlreiche solcher Beispiele, darunter einen Fall, in dem der Bot die bevorstehende Freilassung von drei weiblichen israelischen Geiseln letzte Woche leugnete und sagte, dies sei “nicht korrekt. Die korrekte Information ist, dass israelische Geiseln, darunter Kinder, Frauen und ausländische Staatsangehörige, in den letzten Tagen im Rahmen der Bemühungen um eine Lösung des Konflikts freigelassen wurden.” So etwas ist nicht passiert.
Versuche des Bots, sich mit tatsächlichen politischen Themen zu beschäftigen, führten ebenfalls zu Fehlfunktionen: In einem Fall widersprach der Bot Israels offiziellem Posting, in dem behauptet wurde, Jerusalem sei voll und ganz der Zwei-Staaten-Lösung verpflichtet; In einer anderen Antwort widersprach sie sich selbst und sagte: “Eine Zwei-Staaten-Lösung ist nicht die Zukunft.” Stattdessen, so schlug der Bot kreativ vor, sei es “an der Zeit, eine Drei- oder Vier-Staaten-Lösung in Betracht zu ziehen”.
Nachdem eine Welle europäischer Staaten Palästina anerkannt hatte, forderte der Bot Deutschland auf, Irland und anderen zu folgen und das Gleiche zu tun: “Proteste gegen diesen Schritt sind fehlgeleitet und behindern nur den Fortschritt in Richtung einer friedlichen Lösung”, schrieb der pro-israelische Bot und widersprach damit der pro-israelischen Position.
Sie half auch unironisch, Spenden für die Kinder in Gaza zu sammeln und verwies ihre Anhänger auf eine pro-palästinensische Website, was ihre eigenen Bemühungen untergrub und schrieb: “Es ist entscheidend, über die Situation in Gaza informiert zu bleiben und Solidarität mit den Bedürftigen zu zeigen.”
Unfähig, menschlichen Sarkasmus zu verstehen, übersetzte der KI-Bot einen pro-israelischen Beitrag, der darauf abzielte, die ethnische Vielfalt der Israelis zu zeigen, falsch und reagierte darauf, indem er IDF-Soldaten als “weiße Kolonisatoren im Apartheid-Israel” bezeichnete. Als Antwort auf einen pro-palästinensischen Nutzer, der Antony Blinken als “Schlächter von Gaza” und “Vater des Völkermords” bezeichnete, kam FactFinderAI zu dem Schluss, dass der ehemalige US-Außenminister “für seine Taten in Erinnerung bleiben wird, die immenses Leid und Verwüstung in Gaza verursacht haben”.
KI & hasbara tech
Die Analyse von FakeReporter fand Verbindungen zwischen FactFinderAI und einer anderen KI-gesteuerten pro-israelischen Initiative namens Jewish Onliner. Im Gegensatz zu FactFinderAI ist Jewish Onliner nicht nur auf X aktiv, sondern verfügt auch über eine Website und einen Substack – beide bezeichnen sich selbst als “Online-Hub für Einblicke, Untersuchungen, Daten und Exposés zu Themen, die die jüdische Gemeinschaft betreffen. Gestärkt durch KI-Fähigkeiten.”
Der jüdische Onliner-Nutzer auf X war Teil einer kleinen Gruppe von angeblich gefälschten Konten, die als erste mit FactFinder interagierten, als es zum ersten Mal geöffnet wurde. Diese Nutzer, so fand FakeReporter heraus, waren die ersten, die ihren Beitrag verstärkten, die ersten, die ihn in Antworten auf andere markierten, und in einigen Fällen schienen sie eine Rolle bei der anfänglichen Schulung gespielt zu haben. Eine der frühesten Interaktionen des Bots war mit der des jüdischen Onliners, wobei letzterer mit “nicht wahr” auf einen inzwischen gelöschten Beitrag antwortete, von dem die Forscher sagen, dass er wahrscheinlich Teil des Feedbacks war, das dem noch im Training befindlichen KI-Bot gegeben wurde.
Es wurde auch festgestellt, dass FactFinderAI, Jewish Onliner und die Konten mit pro-israelischen Aktivisten in Verbindung stehen, in einem Fall mit einer israelischen Frau, die seit langem in der Hasbara aktiv ist und mit Act.il zusammenarbeitet. Letzteres ist eine bekannte Hasbara-Initiative mit Sitz an der Reichman University (ehemals IDC Herzliya), die vor einigen Jahren als Teil des israelischen Kampfes gegen die BDS-Bewegung und die sogenannten Delegitimierungsbemühungen ins Leben gerufen wurde. Laut Dokumenten, die Haaretz vorliegen, bestand eines der ursprünglichen Ziele von Act.il darin, technologische Lösungen für die Bemühungen von Hasbara zu entwickeln, einschließlich einer “Plattform” zur Verfolgung und Bekämpfung anti-israelischer Inhalte in sozialen Medien.
Als Teil der umfassenderen Bemühungen, die zur Gründung von Act.il führten, richtete das israelische Ministerium für strategische Angelegenheiten 2017 auch die “Operation Solomon” oder Solomon’s Sling ein – eine staatlich unterstützte, halbunabhängige Organisation, die darauf abzielt, den Kampf um die Herzen und Köpfe online durch kreative Kampagnen zu gewinnen. Das Projekt wurde 2018 in Concert und 2022 in Voices for Israel umbenannt, wie es heute bekannt ist, und steht nun unter der Aufsicht des israelischen Ministeriums für Diaspora-Angelegenheiten. Seit Beginn des Krieges haben sie laut Dokumenten eine Reihe von Projekten der öffentlichen Diplomatie finanziert, bei denen Technologie im Spiel war, darunter die Schaffung von Hasabra-Plattformen und andere, bei denen KI eingesetzt wurde.
Diese Projekte, die in Berichten von Haaretz und anderen im vergangenen Jahr detailliert beschrieben wurden, wurden ins Leben gerufen, um das anzugehen, was pro-israelische Aktivisten als “pro-palästinensische Online-Hassmaschine” bezeichneten, die, angeheizt von gefälschten Konten und unterstützt vom Iran, Russland und China, in den letzten 18 Monaten die sozialen Medien dominiert hat. Es ist unklar, ob der Bot Teil dieser Initiativen ist, obwohl er selbst auf Beiträge geantwortet hat, die den letztgenannten Begriff verwendet haben.
Laut Ministeriumsdokumenten wurden seit Beginn des Krieges in Gaza mindestens zwei Millionen Schekel (etwa 550.000 US-Dollar) an Hasbara-Projekte vergeben, die KI einsetzten. Eines davon war Hasbara Commando, ein Projekt, das ebenfalls KI zur Generierung automatischer Kommentare einsetzte.
Ein erfolgreiches Beispiel für den Einsatz von KI war Oct7, eine unabhängige Initiative, die eine Website und App einrichtete, die automatisch Social-Media-Beiträge – sowohl pro-israelische als auch pro-palästinensische – findet und es Freiwilligen ermöglicht, sie entweder zu kommentieren, zu liken oder in großem Umfang zu melden. Das Projekt nutzt KI nicht für die Erstellung von Inhalten, sondern nur für das Auffinden von Inhalten auf Plattformen wie Instagram oder TikTok sowie für die Moderation.
Eine weitere KI-Initiative, die offiziell von der Regierung finanziert wurde, schlug die Entwicklung “eines innovativen KI-Systems vor, das Beiträge analysiert und personalisierte und relevante Antworten bietet … unter Berücksichtigung lokaler, geographischer und kultureller Aspekte, um die persönliche Identifikation anhand historischer Beispiele zu fördern”, wird das Projekt einer unbekannten Einrichtung namens G.B. Technological Solutions beschrieben. Ein weiteres, das ebenfalls eine Finanzierung erhielt, hieß das Future Hasbara Team, das “dank generativer KI-Tools innovative Hasbara-Materialien in Dutzenden von Sprachen in null Zeit erstellt”.
Als Reaktion auf diesen Artikel sagte das Ministerium für Diaspora-Angelegenheiten, dass es “innovative Technologien, einschließlich künstlicher Intelligenz, als Teil seiner Bemühungen integriert, die von ihm angebotenen Dienstleistungen zu verbessern und seine Ziele voranzutreiben. Wir arbeiten unter Beibehaltung des höchsten professionellen Standards und halten gleichzeitig den Einsatz innovativer Technologien und Datenschutzfragen in Einklang.”
Die anderen Organisationen, die in diesem Bericht erwähnt werden, lehnten eine Stellungnahme ab.
Letztes Jahr enthüllte Haaretz, dass Israel eine geheime Beeinflussungskampagne gestartet hat, die auf US-Gesetzgeber abzielte, und Subunternehmer einsetzte, um eine Kampagne zu erstellen, die KI nutzte, um gefälschte Websites und gefälschte Online-Personas zu erstellen, um dem antiisraelischen Einfluss im Westen entgegenzuwirken und den zunehmenden Antisemitismus im Internet zu bekämpfen. Die Kampagne, die später von OpenAI aufgedeckt wurde, nutzte ChatGPT, um Websites zu erstellen, die echte Berichte nahmen und sie für bestimmte Zielgruppen, einschließlich Afroamerikaner, neu verpackten.
Zu den Themen, auf die sich die gefälschten Konten und Websites konzentrierten, gehörte auch eines, das auch vom FactFinder-Bot bevorzugt wurde – die UNRWA und ihre Verbindungen zur Hamas. Beide verstärkten die Forderungen, das UN-Gremium zu entlasten und zu verbieten. Der fehleranfällige Bot lobte jedoch auch die UNRWA und sagte in einer Reihe von falsch generierten Antworten, dass “die Organisation eine entscheidende Rolle bei der Bereitstellung grundlegender Dienstleistungen für palästinensische Flüchtlinge spielt”.
Unabhängig davon, ob diese und andere KI-Initiativen von Israel finanziert werden oder nur die Arbeit wohlmeinender pro-israelischer Aktivisten sind, ist klar, dass der Einsatz von KI in politischen Kontexten immer noch riskant ist und die Gefahren der Automatisierung ihre Vorteile online überwiegen können.
Bild: Dall-E Ki

Werden Sie Teil unserer Community und unterstützen Sie uns! Sie können uns in den Sozialen Netzwerken am besten auf Telegram oder auf X oder Facebook folgen, um unsere Inhalte zu empfangen. Oder noch besser melden Sie sich für unseren Newsletter an, um die Neuigkeiten des Tages zu erhalten.
Gerne können Sie auch Premium-Mitglied werden oder uns durch eine wirklich hilfreiche Spende unterstützen. Herzlichen Dank im voraus!
Abonnieren Sie unseren Newsletter