Social Bots – Technische Merkmale und Einsatzmöglichkeiten

15. März 2017, Sebastian Peter - Marketing, Social Media

In einer Gegenwart, in der die digitale Welt immer mehr Einfluss auf soziale, politische und wirtschaftliche Strukturen unseres Lebens ausübt, hilft eine umfassende Betrachtungsweise, das Phänomen „Social Bots“ besser zu verstehen. Ebenso wichtig wie das Verständnis für die Technologie, die dabei zum Einsatz kommt, ist die grundlegende Frage nach der Intention, die Entwickler und Verwender von Bots antreibt. 

Social Bot Army

Geschichte, Gegenwart & Zukunft: Von Buchdruck, Bots und künstlicher Intelligenz

„Wer die Vergangenheit nicht kennt, kann die Gegenwart nicht verstehen und die Zukunft nicht gestalten.“
Helmut Kohl

 

Seit Erfindung des Buchdrucks setzt der Mensch immer wieder gezielt neue Medien zu Propaganda-Zwecken oder zur Durchsetzung eigener Interessen ein. Hier einige Beispiele:

  • Buchdruck im Dreißigjährigen Krieg
  • Radio & TV im Dritten Reich 
  • Internet & Soziale Netzwerke im US-Wahlkampf 2016 sowie in der Ukraine-Krise 
  • Künstliche Intelligenzen zur Einführung einer neuen Weltordnung im 22. Jahrhundert…?

Sind Social Bots also nichts anderes, als das Manipulationswerkzeug unseres digitalen Zeitalters? Bots gab es bereits vor dem Aufstieg des Internets zum Informations-Medium des 21. Jahrhunderts, doch wurden die Einsatzmöglichkeiten im „Web 2.0“, das jedem User eine Stimme gegeben hat, weitaus umfangreicher und lukrativer für Entwickler und Verwender. Doch wie sieht die Technologie aus, die einem Social Bot zugrunde liegt? Einige Hintergründe dazu möchten wir im nächsten Abschnitt kurz erläutern.

Bots und ihre Technik

Social Bots sind Programme, deren primäre Aufgabe darin besteht, eine menschliche Identität vorzutäuschen. Bei der Entwicklung kommen beliebte Programmiersprachen wie z. B. „Python“ zum Einsatz. Die Bots können je nach Komplexität bereits mit geringen Kenntnissen unter Anleitung selbst programmiert oder bei komplexeren Anwendungen käuflich erworben werden. Zur vereinfachten Darstellung haben wir Bots in drei Technik-Level aufgeteilt. Diese Kategorien stellen keine offizielle Klassifizierung dar, sondern geben nach unserem Dafürhalten einen einfachen, verständlichen Überblick über verschiedene Standards. Sicherlich lassen sich nicht alle Programme aufgrund ihrer Architektur eindeutig diesem Raster zuordnen.

Simple Bots: Einfache Bots lassen sich mit nur wenigen Zeilen Programmcode und simplen Algorithmen erstellen. So können theoretisch ganze Bot-Armeen die sozialen Netzwerke ohne großen zeitlichen oder finanziellen Aufwand fluten. Jedoch weisen diese Bots aufgrund ihrer einfachen Struktur häufig Defizite bei der Erstellung von vollständigen und stimmigen Benutzerprofilen auf. Sie arbeiten mit einfachen Keyword-Analysen und agieren bzw. reagieren durch wiederkehrende Handlungsmuster (Retweets, Shares, Likes oder standardisierter Content) auf vordefinierte Schlagwörter oder Themen. „Simple Bots“ sind daher einfach zu erkennen. 

Semi-intelligent Bots: Bots auf höherem Technik-Level weisen durch komplizierte Algorithmen und umfangreichen Source-Code eine deutlich höhere Komplexität auf. Die Programmierung erfordert ein hohes Maß an Kenntnissen. Im Gegensatz zu den „Simple Bots“ arbeiten Bots dieser technischen Stufe bereits mit inhaltlichen Analysen und nutzen Datenbanken. Sie sind somit durchaus in der Lage, stimmige Accounts zu erstellen und sinnvolle Dialoge zu führen. Die Kommunikations-Qualität ist dabei maßgeblich vom Algorithmus und der zu Grunde liegenden Datenbank abhängig. 

Artificially intelligent Bots: Künstliche Intelligenzen auf Basis neuronaler Netze oder anderer, zukünftiger Technologien, bilden vermutlich die Königsklasse. Doch stellt sich hier die Frage, ob man bei einem solch technischen Niveau noch von Bots sprechen kann? Faktoren zur Bemessung dieser Grenze könnten z. B. Grad der Kontrollierbarkeit und Steuerbarkeit der KI durch den Menschen sein. Höchst wahrscheinlich wird eine künstliche Intelligenz gar nicht oder nur sehr schwer vom Menschen zu unterscheiden sein. 

Good Bot – Bad Bot: Einsatzmöglichkeiten unter sozialen Aspekten

Bots sind Programme. Sie unterscheiden noch nicht zwischen „Gut und Böse“. Somit entscheidet der Betreiber eines Bots über dessen Einsatz und Gesinnung. Doch wer entscheidet, was gut und was böse oder was vielleicht noch „Grauzone“ ist? Diese Fragestellung verdeutlicht neben den technischen Anforderungen auch die gesellschaftliche und rechtliche Komplexität des Phänomens „Social Bots“. Im Folgenden werden nur einige der möglichen Einsatzgebiete vorgestellt:

 Politik:

  • Manipulation politischer Meinungen und Debatten
  • Initiierung oder Verschärfung politischer Konflikte
  • Stärkung der eigenen, politischen Stellung durch das Vortäuschen hoher Follower-Zahlen

 Wirtschaft:

  • Manipulation von Börsenkursen durch gezielte Streuung von Falschmeldungen
  • Massen-Beeinflussung von Kaufverhalten durch Social Bots im Influencer-Marketing
  • Unternehmens-Infiltration durch „Spear Phishing“ in sozialen Netzwerken. Schlüsselpersonen eines Unternehmens werden gezielt auf Social-Media-Plattformen angeschrieben und durch den Einsatz von Social Engineering als Schwachstelle genutzt.

Soziales Umfeld:

  • Automatisiertes Social Engineering von Personengruppen (z.B. Vereine, Freundeskreise)
  • Das Vortäuschen einer hohen Beliebtheit durch Manipulation der Follower-Zahlen oder anderen Indikatoren (Likes, Shares, etc.)
  • Manipulation von gesellschaftlichen Trends

Im Umkehrschluss können Social Bots Teile der oben genannten Einsatzgebiete auch im positiven Sinne beeinflussen.

Der Einsatz von Bots im Social Engineering

Eine besondere Einsatzmöglichkeit von Social Bots könnte das Social Engineering darstellen. Darunter versteht man kurz gesagt die gezielte Beeinflussung von Menschen, um deren Verhaltensweisen zu manipulieren. 

Beispiel:

Ein Fake-Account (Mensch oder Bot) versucht auf Basis vorgetäuschter Profil-Gemeinsamkeiten (Freundeskreis, Ortsangaben, schulische/berufliche Laufbahn, Vereine, etc.), die er im Vorfeld innerhalb eines Social Networks aufbaut, ein vertrauensvolles Verhältnis zu seinen Opfern zu gewinnen. Dabei erweckt der Account aufgrund oben genannter und weiterer soziodemografischer Daten den Eindruck z. B. ein alter Bekannter oder ein neuer Nachbar zu sein, der sozialen Anschluss sucht. Hat er erst einmal das Vertrauen eines oder mehrere User gewonnen, beginnt die eigentliche Manipulation. Durch meist willkürlich erscheinende Fragen und einfachen Small-Talk werden zunächst Informationen über das Opfer gesammelt und das gewonnene Vertrauen weiter ausgebaut. So gelangt der Fake Account an sensible Daten wie Namen, Adressen, Telefonnummern, Passwörter oder sogar brisante Details. Diese gewonnenen Erkenntnisse werden je nach Intention dazu eingesetzt, das Opfer zu hacken, zu erpressen, zu manipulieren oder einfach nur zu mobben. 

Aktuell werden solche Praktiken häufig von Mensch zu Mensch durchgeführt, da das Social Engineering ein hohes Maß an Interaktion erfordert. Dadurch ist meist nur ein kleiner Opferkreis oder eine Einzelperson betroffen. Doch adaptiert man diese Vorgehensweise auf einen komplexen Bot oder gar eine KI, so wären diese in der Lage, sehr viele solcher Interaktionen vollautomatisiert und auf hohem Niveau zu führen. Die Zahl der Opfer und der damit verbundene Schaden könnten exponentiell ansteigen.

Social Bots - Infografik

Der Umgang mit Bots im Social Media Monitoring

Social Media Monitoring kann sehr hilfreich bei der Erkennung von Bots sein, insbesondere wenn das Monitoring auf menschlicher Ebene erfolgt und von Monitoring-Tools unterstützt wird. Einfache Keyword-basierte Handlungsmuster von Simple Bots werden durch vordefinierte Suchfilter im Monitoring-Tool zusammengetragen. Ein menschlicher Analyst kann anhand solcher identischer Funde durch gezielte Fragestellung ein Muster erkennen, welche die Grundlage für Handlungsempfehlungen bei Social-Media-Strategien bildet. 

Beispiele: Fragestellungen bei der Analyse von Social Bots

  • Wie viele User teilten oder veröffentlichten einen identischen Inhalt? 
  • Welche der User, die solche Inhalte verbreiteten, weisen ein unstimmiges oder unvollständiges Benutzerprofil auf? 
  • Gibt es Gemeinsamkeiten der Benutzerprofile?
  • Gibt es Auffälligkeiten im Handlungsmuster?
  • Wie viele Tweets setzt ein Benutzer zu welchen Themen in welchem Zeitraum ab?

Der Fragenkatalog eines Analysten ist weitaus komplexer. Dennoch zeigt dieser kurze Einblick, dass das Social Media Monitoring ein wichtiger Bestandteil im Umgang mit Social Bots sein kann.

 

Weiterführende Links:
http://www.tab-beim-bundestag.de/de/aktuelles/20161219.html
https://www.youtube.com/watch?v=_u6JJAZDbQ0

 

1 Kommentare

Marco

28. April 2017

Hier noch ein lesenswerter Artikel als Ergänzung:

 

Wie Bots in Zukunft jede Kommunikation zerstören können

www.kerstin-hoffmann.de/pr-doktor/2017/02/08/bots-kuenstliche-intelligenz-unternehmenskommunikation

 

 


Neuer Kommentar

Ihr CURE Blogger-Team

Marco Feiten

Sophie Schäfer

Levi Veiga

Markus Kühn

Philip Haberstroh

Björn Zosel

Sebastian Peter

Katharina Veit

Neueste Artikel

Lernen sie uns näher kennen

CURE Insights

Bleiben Sie immer auf dem neuesten Stand und erkundigen Sie sich in unserem Blog oder folgen Sie uns auf Twitter.