29. Dezember 2020 / Allgemeines

Covid-19-Debatten und andere Online-Diskussionen mithilfe von Bots vielseitiger machen

Volkswagenstiftung fördert Forschungsprojekt mit 1,5 Millionen Euro

Bots stehen als Programme, die automatisiert mit Nutzerinnen in Verbindung treten, oft in der Kritik. So werden sie genutzt, um in sozialen Medien Falschinformationen zur Covid-19-Pandemie zu verbreiten. Welchen Einfluss haben Bots aber genau und wie lassen sich Diskussionen beeinflussen, in denen sie aktiv sind? Für ein interdisziplinäres Projekt, das sich mit dieser Frage befasst, gibt es nun eine Förderung der Volkswagenstiftung in Höhe von insgesamt 1,5 Millionen Euro, verteilt auf vier Jahre. Für die Forschung, an der Informatikerinnen, Soziologinnen und Psychologinnen mitwirken, kooperieren Wissenschaftler*innen der Universität Bielefeld, der Fachhochschule Bielefeld, des Trinity College in Dublin (Irland) und der National University of Australia in Canberra (Australien).

Das Projekt heißt „Bots Building Bridges“ (3B, auf Deutsch: Roboter, die Brücken bauen). Professor Dr. Philipp Cimiano vom Institut CITEC der Universität Bielefeld leitet zusammen mit Dr. Ole Pütz eines der Projektteams, Professorin Dr. Elena Esposito und Privatdozent Dr. Florian Muhle von der Fakultät für Soziologie leiten das zweite Projektteam, das an der Universität Bielefeld angesiedelt ist.

Hintergrund des Projekts ist die Erkenntnis, dass Bots erhebliche Wirkung entfalten können, wenn es ihnen gelingt, Meinungen zu beeinflussen. „Sie können zum Beispiel dazu führen, dass ein Thema überhaupt als relevant wahrgenommen wird, indem Bots Tweets massiv teilen“, erläutert Professor Dr. Philipp Cimiano vom Center for Cognitive Interaction Technology (CITEC), Leiter der Forschungs-gruppe Semantische Datenbanken. Er forscht nicht nur im aktuellen Projekt zu sozialen Bots, sondern leitete auch das Vorgängerprojekt Unbiased Bots That Build Bridges (U3B, auf Deutsch: Unparteiische Roboter, die Brücken bauen.)

Bots als Verbreiter von Fake News

Hat da eigentlich gerade ein Mensch kommentiert – oder eine Maschine? Manchmal ist das gar nicht so einfach zu unterscheiden: Es gibt automatisierte Programme, die im Internet mit Nutzer*innen in Verbindung treten und beispielsweise Nachrichten verbreiten können. Solche Computerprogramme werden als Bots bezeichnet. Diese Meinungsroboter sind speziell dafür entwickelt, in sozialen Netzwerken zu agieren.

Die Programme stehen deshalb oft in der Kritik – so sollen sie beispielsweise bei den vergangenen beiden Präsidentschaftswahlen in den USA die öffentliche Meinung beeinflusst haben. Aber womöglich könnten Bots auch auf positive Weise zur Meinungsbildung beitragen. „Das Gesamtprojekt hat das Ziel, zu analysieren, ob wir Bots nicht auch als eine Lösung ansehen könnten“, erläutert Cimiano. Dafür wollen die Forschenden nun eigens programmierte Bots einsetzen, die den Diskurs beleben und bei strittigen Themen Argumente liefern. Dafür ist es für die Forschenden zunächst einmal wichtig, Bots überhaupt als solche zu erkennen. So können Bots beispielsweise dadurch auffallen, dass sie in regelmäßigen Abständen posten oder bei ihren Inhalten und Ausdrücken nur wenig variieren.

Mit Bots Forschungsbefunde zu Covid-19 in Diskussionen tragen

Im aktuellen Projekt geht es nun darum, mit den eigens programmierten Bots aktiv in den Diskurs einzugreifen. Als Untersuchungsfeld dienen dazu die sozialen Netzwerke Twitter und Reddit. „Wir überlegen aktuell, ob wir uns thematisch auf Covid-19 konzentrieren“, sagt Cimiano. Zu diesem Thema gebe es viele Falschinformationen und Verschwörungserzählungen – und es polarisiere stark. Die Forschenden wollen Accounts sowie Diskussionen identifizieren, bei denen bestimmte Schlüssel-begriffe übermäßig stark auftauchen. „Unser Ziel ist es, eine neutrale Sichtweise zu schaffen und Argumente dafür zu liefern, dass man etwas auch anders sehen könnte“, erläutert der Informatiker. „Wir wollen nicht sagen, wie etwas ist, sondern die Nutzer*innen dazu animieren, Dinge zu hinterfragen.“

rlegen“, erläutert Cimiano. Wichtig sei es, auf Quellen zu verweisen. Ebenfalls ein entscheidender Punkt: Der Bot der Forschenden würde sich immer als solcher zu erkennen geben und offen agieren. Damit unterscheidet er sich von den Bots, die verdeckt aktiv sind. „Alles andere wäre unethisch.“Wie Bots agieren, haben die Forschenden bereits in dem vorangegangenen Projekt U3B analysiert. Nun wird es darum gehen, Inhalte und Diskurse weiter zu erforschen. „Außerdem führen wir qualitative Analysen durch, bei denen wir untersuchen, was für Typen von Bots es gibt und welche Kommunikationsstrategien diese nutzen“, sagt Privatdozent Dr. Florian Muhle von der Fakultät für Soziologie der Universität Bielefeld. Damit wollen die Wissenschaftler*innen die Möglichkeit verbessern, Bots automatisch zu erkennen.

„Wir wollen mit unserem Projekt aber nicht nur die Aktivitäten von sozialen Bots aufdecken, sondern Werkzeuge entwickeln, die von menschlichen Nutzer*innen genutzt werden können, um die Debattenkultur im Internet zu verbessern,“ erklärt Dr. Ole Pütz, Mitarbeiter in Cimianos Forschungsgruppe. Die Wissenschaftler*innen setzten dabei auch auf Kooperationen mit NGOs. „Wir glauben, dass Bots Teil der Lösung sein können, aber noch wichtiger sind die Menschen selbst, die sich an Debatten beteiligen."

Prof. Dr. Philipp Cimiano vom Institut CITEC der Universität Bielefeld leitet das neue Forschungsprojekt zu Bots als Unterstützern von Meinungsvielfalt. Foto: Universität Bielefeld/M.-D. Müller

Meistgelesene Artikel