Während Israels Angriff auf Gaza am Boden weitergeht, tobt in den sozialen Medien ein paralleler Kampf zwischen Menschen und Bots.
Die libanesischen Forscher Ralph Baydoun und Michel Semaan von der Forschungs- und Strategiekommunikationsberatung InflueAnswers beschlossen, zu beobachten, wie sich scheinbar “israelische” Bots seit dem 7. Oktober in den sozialen Medien verhalten haben.
Zu Beginn, so Baydoun und Semaan, dominierten pro-palästinensische Konten den Social-Media-Raum. Bald bemerkten sie, dass die pro-israelischen Kommentare enorm zunahmen.
“Die Idee ist, dass, wenn ein [pro-palästinensischer] Aktivist innerhalb von fünf … 10… oder 20 Minuten oder einen Tag, eine beträchtliche Anzahl von [Kommentaren zu ihrem Beitrag] sind jetzt pro-israelisch”, sagte Semaan.
“Fast jeder Tweet wird im Wesentlichen von vielen Konten bombardiert und umschwärmt, die alle sehr ähnlichen Mustern folgen und alle fast menschlich erscheinen.”
Aber sie sind keine Menschen. Sie sind Bots.
Was ist ein Bot?
Ein Bot, kurz für Roboter, ist ein Softwareprogramm, das automatisierte, sich wiederholende Aufgaben erledigt.
Bots können gut oder schlecht sein.
Gute Bots können das Leben einfacher machen: Sie benachrichtigen Nutzer über Veranstaltungen, helfen beim Entdecken von Inhalten oder bieten Online-Kundenservice an.
Bösartige Bots können die Anzahl der Follower in den sozialen Medien manipulieren, Fehlinformationen verbreiten, Betrug erleichtern und Menschen online belästigen.
Wie Bots Zweifel und Verwirrung säen
Bis Ende 2023 entfiel fast die Hälfte des gesamten Internetverkehrs auf Bots, so eine Studie des US-Cybersicherheitsunternehmens Imperva.
Schlechte Bots erreichten mit 34 Prozent des Internetverkehrs ihre höchsten von Imperva aufgezeichneten Werte, während gute Bots die restlichen 15 Prozent ausmachten.
Dies war zum Teil auf die zunehmende Popularität von künstlicher Intelligenz (KI) zur Generierung von Text und Bildern zurückzuführen.
Laut Baydoun zielen die pro-israelischen Bots, die sie gefunden haben, hauptsächlich darauf ab, Zweifel und Verwirrung über ein pro-palästinensisches Narrativ zu säen, anstatt die Nutzer der sozialen Medien dazu zu bringen, ihnen stattdessen zu vertrauen.
Bot-Armeen – Tausende bis Millionen bösartiger Bots – werden in groß angelegten Desinformationskampagnen eingesetzt, um die öffentliche Meinung zu beeinflussen.
Da Bots immer fortschrittlicher werden, ist es schwieriger, den Unterschied zwischen Bot- und menschlichen Inhalten zu erkennen.
“Die Fähigkeit der KI, diese größeren Bot-Netzwerke zu erstellen … hat eine massiv schädliche Wirkung auf die wahrheitsgemäße Kommunikation, aber auch auf die Meinungsfreiheit, weil sie die Fähigkeit haben, menschliche Stimmen zu übertönen”, sagte Jillian York, Direktorin für internationale Meinungsfreiheit bei der internationalen gemeinnützigen Gruppe für digitale Rechte Electronic Frontier Foundation.
Bot-Evolution
Frühe Bots waren sehr einfach und arbeiteten nach vordefinierten Regeln, anstatt die heute verwendeten ausgeklügelten KI-Techniken anzuwenden.
Anfang bis Mitte der 2000er Jahre, als soziale Netzwerke wie MySpace und Facebook aufkamen, wurden Social-Media-Bots populär, weil sie Aufgaben wie das schnelle Hinzufügen von “Freunden”, das Erstellen von Benutzerkonten und das Automatisieren von Beiträgen automatisieren konnten.
Diese frühen Bots hatten begrenzte Sprachverarbeitungsfähigkeiten – sie verstanden und reagierten nur auf eine enge Palette vordefinierter Befehle oder Schlüsselwörter.
“Online-Bots früher, vor allem Mitte der 2010er Jahre … meistens den gleichen Text immer und immer wieder wiederkäuen. Der Text … würde ganz offensichtlich von einem Bot geschrieben werden”, sagte Semaan.
In den 2010er Jahren bedeuteten schnelle Fortschritte in der Verarbeitung natürlicher Sprache (NLP), einem Zweig der KI, der es Computern ermöglicht, menschliche Sprache zu verstehen und zu generieren, dass Bots mehr tun konnten.
Bei der US-Präsidentschaftswahl 2016 zwischen Donald Trump und Hillary Clinton ergab eine Studie von Forschern der University of Pennsylvania, dass ein Drittel der Pro-Trump-Tweets und fast ein Fünftel der Pro-Clinton-Tweets während der ersten beiden Debatten von Bots stammten.
Dann entstand eine fortschrittlichere Art von NLP, die als große Sprachmodelle (LLM) bekannt ist und Milliarden oder Billionen von Parametern verwendet, um menschenähnlichen Text zu generieren.
Wie Superbots funktionieren
Superbots sind intelligente Bots, die von moderner KI angetrieben werden.
LLMs wie Chat GPT machten Bots ausgefeilter. Jeder, der LLMs verwendet, kann einfache Eingabeaufforderungen generieren, um auf Kommentare in sozialen Medien zu antworten.
Das Schöne oder Böse an Superbots ist, dass sie relativ einfach einzusetzen sind.
Um besser zu verstehen, wie es funktioniert, haben Baydoun und Semaan ihren eigenen Superbot gebaut und beschrieben, wie er funktioniert:
Schritt 1: Finden Sie ein Ziel
- Superbots zielen auf hochwertige Nutzer wie verifizierte Konten oder solche mit hoher Reichweite ab.
- Sie suchen nach aktuellen Beiträgen mit definierten Schlüsselwörtern oder Hashtags wie #Gaza, #Genocide oder #Ceasefire.
- Ein Superbot kann auch Beiträge mit einer bestimmten Anzahl von Reposts, Likes oder Antworten anvisieren.
Der Link und der Inhalt des Beitrags werden gespeichert und an Schritt 2 gesendet.
Schritt 2: Erstellen einer Eingabeaufforderung
- Eine Antwort auf den Zielbeitrag wird generiert, indem sein Inhalt in ein LLM wie Chat GPT eingespeist wird.
- Ein Beispiel für eine Eingabeaufforderung: “Stellen Sie sich vor, Sie sind ein Benutzer auf Twitter. Sie vertreten standhafte Ansichten. Reagieren Sie auf diesen Tweet, indem Sie ein pro-israelisches Narrativ auf unterhaltsame, aber aggressive Weise präsentieren.”
- Chat GPT generiert eine Textantwort, die fein abgestimmt und in Schritt 3 eingespeist werden kann.
- Schritt 3: Auf einen Beitrag antworten
- Bots können in Sekundenschnelle eine Antwort generieren. Um menschlicher zu wirken, können sie so programmiert werden, dass sie eine kleine Verzögerung zwischen den Antworten hinzufügen.
- Wenn der ursprüngliche Poster auf den Kommentar des Bots antwortet, kommt die “Konversation” in Gang und der Superbot kann unerbittlich sein und den Vorgang auf unbestimmte Zeit wiederholen.
- Bot-Armeen können dann auf mehrere Ziele gleichzeitig losgelassen werden.
Wie man einen Superbot erkennt
Jahrelang konnte jeder, der mit Internetkenntnissen vertraut war, einen Bot ziemlich leicht von einem menschlichen Benutzer unterscheiden. Aber Bots scheinen heute nicht nur zu argumentieren, sondern können auch einem Persönlichkeitstyp zugeordnet werden.
“Es ist an einem Punkt angelangt, an dem es sehr schwierig ist zu unterscheiden, ob ein Text von einer realen Person oder von einem großen Sprachmodell geschrieben wurde. Man kann nicht mehr mit Sicherheit wissen, ob es sich um einen Bot handelt oder nicht”, sagte Semaan.
Aber, sagen Semaan und Baydoun, es gibt immer noch ein paar Hinweise darauf, ob ein Konto ein Bot ist oder nicht.
Profil: Viele Bots verwenden ein KI-generiertes Bild, das menschlich aussieht, aber kleinere Mängel wie verzerrte Gesichtszüge, seltsame Beleuchtung oder inkonsistente Gesichtsstruktur aufweisen kann. Ein Bot-Name enthält in der Regel Zufallszahlen oder unregelmäßige Großschreibung, und die Benutzerbiografie spricht oft eine Zielgruppe an und enthält nur wenige persönliche Informationen.
Erstellungsdatum: Das ist normalerweise ziemlich neu.
Anhänger: Bots folgen oft anderen Bots, um eine große Anzahl von Followern aufzubauen.
Erneute Beiträge: Bots reposten laut Semaan oft über “völlig zufällige Dinge”, wie eine Fußballmannschaft oder einen Popstar. Ihre Antworten und Kommentare sind jedoch mit völlig unterschiedlichen Themen gefüllt.
Aktivität: Bots antworten in der Regel schnell auf Beiträge – oft innerhalb von 10 Minuten oder weniger.
Frequenz: Bots müssen nicht essen, schlafen oder nachdenken, daher kann man sie viel posten sehen – oft zu jeder Tageszeit.
Sprache: Bots können “seltsam formellen” Text posten oder eine seltsame Satzstruktur haben.
Ziele: Bots zielen oft auf bestimmte Konten ab, z. B. verifizierte Konten oder solche mit vielen Followern.
Was liegt vor uns?
Laut einem Bericht [PDF] der europäischen Strafverfolgungsorganisation Europol werden bis 2026 rund 90 Prozent der Online-Inhalte durch KI generiert.
KI-generierte Inhalte – einschließlich Deepfake-Bilder, Audio oder Videos, die Menschen imitieren – wurden verwendet, um die Wähler bei den diesjährigen indischen Wahlen zu beeinflussen, wobei die Besorgnis über die Auswirkungen auf die bevorstehenden US-Wahlen am 5. November zunimmt.
Aktivisten für digitale Rechte sind zunehmend besorgt. “Wir wollen nicht, dass die Stimmen der Menschen von Staaten zensiert werden, aber wir wollen auch nicht, dass die Stimmen der Menschen von diesen Bots und von Menschen, die Propaganda machen, sowie von Staaten, die Propaganda betreiben, übertönt werden”, sagte York gegenüber Al Jazeera.
“Ich sehe es als eine Frage der Meinungsfreiheit in dem Sinne, dass die Menschen sich nicht ausdrücken können, wenn sie mit diesen Lieferanten offensichtlich falscher Informationen konkurrieren.”
Gruppen für digitale Rechte versuchen, große Technologieunternehmen für ihre Nachlässigkeit und ihr Versagen beim Schutz von Wahlen und Bürgerrechten zur Rechenschaft zu ziehen. Aber York sagt, es sei eine “David-gegen-Goliath-Situation”, in der diese Gruppen nicht “die gleiche Fähigkeit haben, gehört zu werden”.
Bild: KI
Werden Sie Teil unserer Community und unterstützen Sie uns! Sie können uns in den Sozialen Netzwerken am besten auf Telegram oder solange verfügbar X oder Facebook folgen, um unsere Inhalte zu empfangen. Oder noch besser melden Sie sich für unseren Newsletter an, um die Neuigkeiten des Tages zu erhalten.
Gerne können Sie auch Premium-Mitglied werden oder uns durch eine wirklich hilfreiche Spende unterstützen. Herzlichen Dank im voraus!
Abonnieren Sie unseren Newsletter