Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Mit Algorithmen gegen digitale Hetze

Hate Speach Abwehr
Software erkennt Hasskommentare auf sozialen Plattformen. (Quelle: hiz)

Es klingt ein wenig deprimierend, wenn man sich den Arbeitsalltag von Uwe Bretschneider anschaut: In den letzten Jahren hat sich der Wirtschaftsinformatiker mit verschiedensten Formen des digitalen Mobbings beschäftigt - und wie sich dieses computergestützt erkennen lässt. "Es ist traurig, diese Kommentare zu lesen. Als Forscher versucht man natürlich trotzdem, sachlich zu bleiben und diese Eindrücke nicht mit nach Hause zu nehmen", so Bretschneider, der am Lehrstuhl für E-Business der MLU an seiner Promotion arbeitet.

 

Vor einigen Jahren waren es vor allem Schüler und Lehrer, die von Cyber- Mobbing, also verbalen Attacken im Internet, betroffen waren. Heute richtet sich der Unmut vieler Internetnutzer pauschal gegen ganze Bevölkerungsgruppen, Politiker oder Journalisten. Auf vielen Facebook- Seiten laufen täglich unzählige Kommentare ein, in denen Menschen ihren Unmut gegenüber verschiedenen Themen kundtun. Wie auch beim Mobbing können diese Kommentare sehr verletzend sein, "mitunter rufen die Kommentatoren sogar offen zur Gewalt gegenüber einer bestimmten Gruppe auf", ergänzt Bretschneider. Deshalb haben viele Seitenbetreiber Grundregeln für ein respektvolles Miteinander entwickelt, eine sogenannte Netiquette. Beiträge, die dagegen verstoßen, werden in der Regel gelöscht. Bisher überprüfen Moderatoren jeden Beitrag händisch - eine sehr zeitaufwendige Aufgabe.

 

An dieser Stelle setzt der Algorithmus an, den Bretschneider entwickelt hat: "Das Programm analysiert die Kommentare und sucht nach Wörtern und Wortgruppen, die in einer Datenbank hinterlegt sind", so der Wissenschaftler. Das können zum Beispiel Schimpfwörter oder Aufforderungen zu Gewalt sein. Die Datenbank lässt sich beliebig anpassen. Wird ein Beitrag mit Hate Speech erkannt, kann dieser entweder automatisch gelöscht werden oder einem Moderator zur Kontrolle vorgelegt werden. Das alles ist erstmal nichts Neues: Andere Informatiker haben ähnliche Verfahren entwickelt, mit denen sich Texte auf bestimmte Begriffe durchsuchen lassen. "Für Hate Speech ist es aber zusätzlich wichtig zu wissen, gegen welche Personen sich eine bestimmte Aussage richtet", sagt Bretschneider. Deshalb hat der Wirtschaftsinformatiker sein Programm noch um einen Zwischenschritt ergänzt: Es analysiert die Kommentare im Kontext der Diskussion auf Facebook und erkennt dadurch den Adressaten einer Aussage; Bretschneider unterscheidet insbesondere zwischen Aussagen gegen Geflüchtete, Politiker oder Medien.

 

Der Nutzen eines solchen Algorithmus hängt davon ab, wie gut und wie genau er Hate Speech erkennt. Das überprüfte Bretschneider mit Hilfe gleich mehrere Datensätze: Er sammelte Mitteilungen des Kurznachrichtendienstes Twitter, Beiträge aus Foren im Internet sowie Kommentare von öffentlich einsehbaren Facebook-Seiten. Diese Daten wertete er zunächst händisch aus, um eine Vergleichsgröße für seine Software zu haben. Im Anschluss ließ er den Algorithmus die gleichen Datensätze analysieren. Das Ergebnis: 70 Prozent der vom System erkannten Treffer waren korrekt, etwa 40 Prozent aller in Frage kommenden Kommentare blieben unerkannt. Das mag zunächst ernüchternd klingen, könnte die Arbeitszeit für Moderatoren aber schon deutlich reduzieren.

 

Einen Zensur- oder Überwachungsalgorithmus habe er nicht entwickelt, sagt Bretschneider: "Es sollte nie darum gehen, das Recht auf freie Meinungsäußerung zu unterdrücken oder bestimmte Meinungen zu verbieten." Lediglich die Art und Weise, wie diese Meinungen geäußert werden, könne und dürfe man überprüfen. Den Rest müsse eine Demokratie aushalten.

Zurück