KI-Bots und Meinungsmache in Sozialen Medien

Autor*in: DB

Inhaltsverzeichnis

  • Ein tragisches Beispiel
  • Zusammenhang
  • Ferngesteuerte Demonstrationen
  • Der Hass nimmt zu!
  • Einen Blick in die Vergangenheit
  • Bot-Produktion
  • Wie erkenne ich einen Bot?

Ein tragisches Beispiel

In einem TikTok-Video berichtet eine etwa 30-jährige Frau von einem tragischen Vorfall.

Ein 16 Jahre alter Junge namens Daniel engagierte sich ehrenamtlich in einer Flüchtlingsunterkunft. Als Daniel jedoch in Gegenwart der ukrainischen Flüchtlinge russisch sprach, wurden einige von ihnen aggressiv und schlugen den Jungen zusammen. Dieser starb an seinen Verletzungen. Die Täter wurden straffrei zurück in ihre Unterkunft geschickt.

Die Frau berichtete in Ihrem Video den Vorfall sehr detailliert und emotional. Sie brach in Tränen aus und verstand nicht, wie so etwas passieren konnte.

Was geht in Ihnen vor, wenn Sie das lesen? Verwirrung? Wut? Mitleid? Es ist ganz normal, dass man einem so aufrichtigen Statement zunächst erst einmal Glauben schenkt und nicht weiter hinterfragt.

Die Rede ist von dem Mord in Euskirchen, der nie stattgefunden hat.

Die Bundespolizei NRW bezieht zeitnah Stellung zum geschilderten Vorfall.

Zahlreiche Nachrichtenagenturen berichten von dieser Falschmeldung, wie z.B. die Frankfurter Allgemeine[1], t-online[2] und der ZDF[3].

Zusammenhang

Doch was hat der Gefühlsausbruch der TikTokerin mit KI-Bots zu tun?

Die Dame, die die o.g. Falschmeldung verbreitet hat, erklärte, sie habe diese Information über mehrere Ecken erfahren und hätte selbst fest geglaubt, dass es wahr sei. Sie hat also in erster Linie darauf vertraut, dass eine Meldung, die Freunde von ihr teilten, wahr sein müsste und deshalb nicht auf ihren Wahrheitsgehalt überprüft werden müsse.

Ferngesteuerte Demonstrationen

Am 21. Mai 2016 fand eine größere Demonstration gegen die Islamisierung in Texas statt. Diese wurde von der Facebook-Gruppe “Heart of Texas” organisiert. Dem entgegen organisierte die Gruppe “United Muslims of America“ einen Gegenprotest[4].

Durch diese Positionierung wurde das politische Augenmerk auf das Thema Muslime gelenkt und andere Themen verschwanden aus dem Fokus.

Aber ausgelöst und organisiert wurden die Demos pro und kontra Muslime von Menschen, bzw. Rechnern, die in Petersburg stehen. Es wurde keiner der Organisatoren vor Ort gesichtet, weil alles inszeniert war. 

Es versammelten sich echte Menschen, weil für sie relevante Themen angesprochen, verschärft und anschließend durch Social-Bots kommentiert, geteilt und geliked werden. So werden sie gesehen und je mehr Interaktion stattfindet, desto offizieller kommt die Information beim Konsumenten an.

Der Hass nimmt zu!

(Landesanstalt für Medien Nordrhein-Westfalen. (4. Juli, 2018). Wie häufig haben Sie persönlich schon Hassrede bzw. Hasskommentare im Internet gesehen? [Graph]. In Statista. Zugriff am 31. Januar 2023, von https://de.statista.com/statistik/daten/studie/808263/umfrage/umfrage-zur-wahrnehmungshaeufigkeit-von-hasskommentaren-im-internet-nach-alter/ )[5]

Hasskommentare sind ebenfalls ein fester Bestandteil von Social-Bots. Oft sind diese sehr polarisiert, wenig kreativ und schnell verfasst. Ihr Ziel ist es, Vertreter einer ungeteilten Meinung zum Schweigen zu bringen. Selbst vor Morddrohungen wird nicht zurückgeschreckt.

Einen Blick in die Vergangeneit

Es ist in Ordnung, anderer Meinung zu sein. Aber warum gibt sich jemand die Mühe, mehrere Menschen zu beschäftigen, damit sie ausgewählte Nachrichten teilen, oder gegen bestimmte Personen anzugehen?

Häufig wird bei den organisierten Troll-Aktionen auch von Propaganda gesprochen.[6]

So ähnlich wurde bereits der zweite Weltkrieg eingeläutet. Durch Falschmeldungen hatte man glauben lassen, dass Polen Deutschland angegriffen habe und dass der erste Angriff lediglich eine Gegenmaßnahme sei .[7] In der damaligen Zeit konnte man noch nicht so einfach wie heute durch das Internet überprüfen, wie hoch der Wahrheitsgehalt einer Nachricht sein kann. Jedoch ist es heute umso leichter eine Falschmeldung zu verbreiten und jeder Rechercheaufwand ist eben mit einem Aufwand verbunden.

Doch das Ziel solcher Aktionen wird mit einem Vergleich klar. Der Hintergrund von Fake-News ist die Lenkung von politischen Positionen.

Bot-Produktion

Nun wurden in diesem Artikel oft die “Social-Bots” genannt. Aber woher kommen diese Social Bots und wie viel Mensch und wie viel KI steckt dahinter?

Zunächst werden Bots von einem Menschen erstellt und mit verschiedenen Accounts versorgt. Ein Algorithmus mit typischen wenn-dann-Abfolgen lässt diese dann auf Sozialen Netzwerken interagieren. Bestimmte Wörter triggern diese Bots zu vorgeschrieben Ineratkionen, wie einem Kommentar, einem Like oder das Teilen bestimmter Beiträge.[8]

Nicht alle werden dafür genutzt, Meinungen zu manipulieren. Viel häufiger werden Social-Bots zu Marketing-Zwecken genutzt. Die einfachste Form ist, einen Anbieter entsprechender Bots dafür zu bezahlen, um eine erste Followerschaft zusammenzustellen. Das heißt, dass mehrere Hundert Fake-Accounts einem Unternehmen folgen und mit Beiträgen interagieren. Diese Interaktion ist zwar nicht komplex, reicht aber, um eine gewisse Nachfrage und Bekanntheit vorzugaukeln und den Algorithmus der Plattform zu triggern, wodurch die eigenen Beiträge öfter von verschiedenen Menschen gesehen werden.

Wie erkenne ich einen Bot?

Ein Erfolgsrezept existiert leider nicht.

Aber obwohl man es niemals wirklich wissen kann, gibt es ein paar Anhaltspunkte, an denen man sich orientieren kann. Wie allgemein ist die Account-Beschreibung gehalten und wie neu ist der betreffende Account? Bei prominenten Persönlichkeiten gibt es Merkmale zur Verifizierung, wie es den blauen Haken bis vor kurzem bei Twitter gab. Wenn ein Account neu ist und sehr viel Zeit nur mit dem Verfassen von Kommentaren und dem Teilen von Beiträgen verbringt, ist es ein weiteres Indiz, dass ein Social-Bot dahinterstecken könnte. Manchmal ist ein Antworttext in sekundenschnelle Geschrieben, obwohl man so aktiv ist und Lesen und Verfassen i.d.R. mehr Zeit in Anspruch nehmen müsste. Zudem scheitert ein Bot, wenn eine Unterhaltung komplexer wird, da die geschriebenen Programme nicht jede Eventualität, die ein Gespräch einschlagen kann, berücksichtigen.[9]