Ein Podcast über KI
Johannes und Gesina, zwei Freunde aus der Forschung, unterhalten sich über Themen rund um künstliche Intelligenz.

Was sind Social Bots?

avatar
Johannes Rabold
avatar
Gesina Schwalbe

In dieser Folge beschäftigen wir uns mit Social Bots; kleinen automatischen Programmen, die in sozialen Netzwerken vereinzelt helfen, aber auch weniger gute Intentionen haben können. Social Bots können stören, überfluten und Meinungen manipulieren. Die Forschung hat aber auch Tools hervorgebracht, die KI-gestützt gegen bösartige Bots vorgehen können.

Nochmal kurz für Beepo

  • Ein Bot (kleiner Roboter) wird normalerweise verstanden als ein Programm, das mit Nutzern über Textnachrichten interagieren kann. Z.B. kann man einen Bot haben, der auf eine Textanweisung in einem Chat hin das Licht ausmachen, oder über eine Chatnachricht Bescheid geben kann, wenn es eine neue Nachricht auf einem Nachrichtenkanal gab.
  • Social Bots sind Programme, die über soziale Netzwerke mit Menschen interagieren, und hier auch Schindluder treiben können.
  • Social Bots sind präsent: Es wird geschätzt, dass ca. 15% der Profile auf Twitter eigentlich Bots sind.
  • Man kann verschiedene Sachen dagegen tun und die Forschung ist aktiv daran, Maßnahmen wie Boterkenner zu entwickeln. Schau dir z.B. mal Botometer an.

Warum habt Johannes diese Folge vorbereitet?

  • Ich sehe, wie viele Social Media Plattformen und Kommentarspalten von demokratie- und wissenschaftsfeindlichen Äußerungen/Meinungen durchsetzt sind, und ich will nicht glauben, dass das das Meinungsbild der Gesellschaft widerspiegelt
  • Ich war interessiert an der Frage, inwiefern Social Bots das Stimmungsbild in Sozialen Medien verzerren können
  • Außerdem wollte ich wissen, wie man Social Bots erkennen kann und wie man sogar etwas dagegen unternehmen kann.

Was sind Social Bots?

  • Kleine Programme, die – meist in sozialen Netzen – automatisiert Handlungen vornehmen (z.B. menschliches Verhalten simulieren, siehe ELIZA, Joseph Weizenbaum)
  • Oft nennt man die Profile, welche solche Handlungen vornehmen, Bots.
  • Aufteilung in gutartige und bösartige Bots:
    • Gutartige Bots können zum Beispiel manuelle Arbeit abnehmen
      • Umrechnen von Währungen
      • Akkumulieren von Informationen
      • Reposts finden (z.B. auf Reddit)
    • Die BPB definiert drei Kategorien für Bots aus der bösartigen Ecke:
      • Überlaster: Plattform / User mit zu vielen Nachrichten bombardieren
      • Trendsetter: viele Nachrichten posten, die einen gewollten Trend unterstützen, um es nach mehr Unterstützern aussehen zu lassen)
      • Auto-Trolle: automatisierte, oft ablenkende Antworten auf Posts von Personen oder mit bestimmter Meinung)

Wie funktionieren sie?

  • Häufig stellen soziale Netzwerke eine Programmierschnittstelle (API) zur Verfügung.
  • Über APIs (=programmatische Schnittstellen) lassen sich Bots starten und steuern; z.B.:
    • Die Timeline lässt sich nach Schlüsselworten durchsuchen und der Bot kann mit (teilweise auch kontextsensitiven) Tweets antworten
  • Bot-Profile folgen oft einfach zufällig anderen Profilen, um ihre Reichweite zu erhöhen
  • „Intelligenz“ von Bots:
    • Oftmals nur vage basierend auf komplexer KI, wenn überhaupt (meistens reichen wenige statische Regeln)
    • Ausgeklügeltere Bots können aber auch Fragen beantworten oder ganze Konversationen führen (vgl. Chatbots)

Gefahren von Social Bots

  • Einschätzung: ca. 9-15 % der Twitter-Profile sind Bots (Varol et al., 2017)
  • Weitreichende und schnelle Auswirkungen durch Automatisierung
  • Menschen als soziale Wesen tendieren zum „Folgen der Masse“
  • Verzerrung des (politischen) Meinungsbildes
    • Ein Thema kann künstlich aufgeblasen werden; z.B.:
      • Politiker:innen werden gut oder von ihren Gegner:innen schlecht dargestellt
      • Falsch-Informationen über die Impf-Debatte können rasant verteilt werden
    • Aber noch recht unbekanntes Forschungs-Terrain: Die Größe des Einflusses von Social Bots ist umstritten.

Was kann man gegen sie tun?

  • Machine Learning gegen bösartige Social Bots
  • Z.B. Supervised ML (gelabeltes Datenset von Tweets; Bot ja oder nein)
    • Problem: Woher kommt die Ground Truth?
      • Honeypots
        • Accounts, die nur Kauderwelsch tweeten
        • Bots wollen ihre Reichweite erhöhen und folgen zufälligerweise auch diesen Accounts
    • Als Attribute können sowohl Inhalt als auch Metadaten von Tweets verwendet werden
    • LSTMs als Methode, zeitabhängige Daten (auch Text) zu verarbeiten
  • Bei Botnets können Unsupervised ML Methoden verwendet werden um zu untersuchen, ob sich Accounts synchron verhalten
  • Botometer
    • Errechnet einen Bot-Score auf Profil-Ebene
    • Supervised ML Ansatz mit über 1000 Features
    • Subscores, damit man sieht, welche Faktoren wie viel Einfluss auf den Score hatten
    • Auf englischsprachige Profile ausgerichtet; es gibt aber auch einen sprachunabhängigen Score

Quellen und weitere interessante Links