„Eine neue Form der KI entdeckt 90 Prozent aller Onlinebeschimpfungen“, titelte das US-amerikanische Magazin Fortune am 30. Juli 2016. Gemeint war ein von Yahoo entwickelter Algorithmus, der auf Grundlage von eine Million Kommentaren des US-Portals trainiert wurde. Das Programm steche durch seine Genauigkeit die Konkurrenten aus. Die Forscher wollten damals über die reine Stichwortanalyse von Nutzerbeiträgen hinausgehen und speisten deshalb die Daten der Kommentarspalten von „Yahoo News“ und „Finanzen“ in den Algorithmus ein. Das Problem der Hasskommentare ist seitdem nicht gelöst worden. Jüngst erwähnte Mark Zuckerberg in seiner Anhörung vor dem US-Kongress, dass künstliche Intelligenzen in zehn Jahren „Hate Speech“ bei Facebook auch in sprachlichen Nuancen erkennen und automatisch löschen könnten.
Doch wie schlau ist die Technologie bereits heute?
Welche Probleme ergeben sich bei der Nutzung? Und wo liegen die Schwachpunkte? Die absatzwirtschaft hat mit Wissenschaftlern darüber gesprochen.
Zuckerbergs Aussage vor dem Kongress hat Sylvia Jaki und ihren Forscherkollegen, Sprachtechnologe Tom De Smedt, überrascht. „Wir haben beide gestutzt, denn gerade im englischsprachigen Raum sind die Forscher bereits sehr weit“, sagt die Medienlinguistin Sylvia Jaki von der Universität Hildesheim. Fünf bis zehn Jahre werde es sicher nicht mehr dauern, denn eigentlich seien moderne Maschinen schon heute in der Lage dazu. „Zuckerberg wirkte uninformiert, aber womöglich hat er auch eine andere Vision und möchte eine fast 100-prozentige Genauigkeit.“
Wo hört die Meinungsfreiheit auf?
Gemeinsam mit Wissenschaftlern der Universität Antwerpen hat Jaki den Hate Speech-Detektor für Twitter realisiert. Dieses automatisierte Programm spürt in Echtzeit hetzerische Wörter und Wortkombinationen in deutschsprachigen Tweets auf und bezieht auch Elemente wie Bilder und Emojis mit ein. Auf mittlerweile 84 Prozent Treffergenauigkeit komme der Algorithmus, sagt die dafür mitverantwortliche Medienlinguistin. Dass es die perfekt fahndende Maschine auf absehbare Zeit geben wird, glaubt Jaki nicht.
Es wird wohl immer eine menschliche Nachkorrektur nötig sein.
„Die Maschinen lesen auf den Zeilen, Menschen lesen zwischen den Zeilen“, sagt Aljoscha Burchardt im Gespräch. Er ist Forscher am Language Technology Lab vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und verweist auf die Mehrdeutigkeit der Sprache. Für die Erkennung simpler Sprachmerkmale seien maschinelles Lernen und Algorithmen nützlich. Da gleichen sie einem Filter im Spamordner. „Die Grenzen der Technologie sind jedoch bei Anspielungen, Ironie und beim kulturellen Kontext erreicht. Subtile Aussagen, bei denen sozusagen zwischen den Zeilen steht, was gemeint ist und das jeder Mensch versteht, sind für Algorithmen kaum zu erkennen.“ Deshalb stehle sich Zuckerberg mit seinem Verweis auf künstliche Intelligenzen aus der redaktionellen Verantwortung, so Burchardt. Er betont: „In dem Bereich der Identifizierung von Hassrede müssen menschliche Experten arbeiten.“
Die Kernfrage in der Diskussion
Wie gehen Gesellschaften mit künstlicher Intelligenz bei der Bekämpfung von Hasskommentaren um? „Zensur ist das Stichwort, das häufig genannt wird“, sagt die Wissenschaftlerin aus Hildesheim. „Das eine Lager ist von solchen Möglichkeiten begeistert und das andere sagt, dass diese gegen die Meinungsfreiheit verstoßen.“ Außerdem wird es maßgeblich sein, wie einzelne Organisationen und Behörden den Begriff „Hate Speech“ definieren. „Zuckerberg kam bei der Anhörung ins Straucheln und sprach von Aufruf zu Gewalt, mehr nicht“, sagt Jaki. Dass Facebook seine eigenen Standards inkonsequent umsetzt, zeigen zwei Fälle, bei denen die US-Firma Facebook insbesondere über die Verbreitung von Desinformation und Propaganda zu Morden aus Hass beigetragen hat. Dazu gehört der Fall der Rohingya in Burma und der Bürgerkrieg in Sri Lanka. Eine Buzzfeed-Recherche hat gezeigt, dass Facebook trotz zahlreicher Warnungen von Politikern und Forschern über Jahre kaum reagiert hat.
Hinzu kommt, dass es auf institutioneller Ebene keine einheitliche Auffassung gibt. „Die EU verfügt über keine rechtsgültige Definition, was unter Hassrede konkret zu verstehen ist.“ Üble Nachrede und andere strafrechtlich relevante Fälle gehören zweifelsfrei dazu, betont die Wissenschaftlerin. „Aber wann ist freie Meinungsäußerung keine mehr?“, fragt Jaki. Ihr Beispiel: Im Graubereich befinden sich Kommentare, in denen Migranten als Kriminelle dargestellt werden. Diese sind von der Meinungsfreiheit gedeckt. „Die Häufigkeit der Tweets macht daraus jedoch ‚Hate Speech‘, weil es durch die gezielte Herabsetzung zu politischer Propaganda wird.“
DFKI-Forscher Burchardt assistiert seiner Kollegin und erklärt den Mechanismus: „Es gibt zwei Wege, wie man Maschinen aufschlauen kann. Erstens per Algorithmus oder zweitens man lässt sie mit einem Datensatz lernen.“ Je größer und besser die Informationen darin, desto genauer wird die Maschine. Er schränkt jedoch ein:
Was der Mensch nicht gut kann, kann die Maschine erst recht nicht.
Heißt: Wenn sich Menschen nicht einigen können, welche Aussagen in den Grenzen der Meinungsfreiheit liegen und welche nicht, wird es schwierig, es einer Maschine beizubringen, die das Urteil dann übernimmt.