„Viele User bei Twitter verteilen Nachrichten unhinterfragt und oft sogar ohne sie gelesen zu haben weiter. Bots tun ihr Übriges, um Twitter zu einem wunderbaren Kanal für Desinformation zu machen. Sogar manchen Experten mangelt es an der kritischen Grundhaltung, die hier gefragt wäre“, sagt Ed Wohlfahrt von Edrelations. Viele Accounts seien auf Halde produzierte Sammlungen von irgendwelchen Fundstücken aus dem Netz. „Wenn ein User öfter negativ auffällt, kann er zwar das Vertrauen seiner Follower verlieren, eine wirksame Kontrollinstanz können aber nur die Nutzer sein, die ihr Hirn einschalten“, betont der Social-Media-Berater.
Typische Merkmale erfundener Tweets
Viele Falschmeldungen werden zwar schnell von Medien und anderen Nutzern entlarvt, aber die schiere Menge an Tweets macht eine umfassende Kontrolle praktisch unmöglich. Der Algorithmus aus Chile soll das ändern. Zwar ist die Software bei weitem nicht perfekt, die Programmierer behaupten aber, dass es zumindest einige verräterische Merkmale gibt, die es erlauben, wahre von falschen Tweets zu trennen. In ihrem Paper „The Power of Prediction with Social Media“, das in Kürze veröffentlicht werden soll, führen die Autoren einige typische Anzeichen für erfundene Twitter-Meldungen an. Tweets sind demnach umso glaubwürdiger, desto mehr Follower ihre Verfasser haben. Längere Nachrichten und auch solche die URLs – vor allem Verlinkungen auf die 10 000 meistbesuchten Seiten im Netz – enthalten, sind tendenziell glaubhafter.
Ausbaufähige Performance
Tweets mit einer negativen oder kritischen Grundhaltung entsprechen ebenfalls eher der Wahrheit. Auch die Interpunktion kann angeblich helfen, Lügen zu entlarven. Die häufige Verwendung von Frage- und Ausrufezeichen sollte die Alarmglocken schrillen lassen. Personalpronomen in der ersten oder dritten Person können ein Hinweis auf zweifelhafte Inhalte liefern. Auch die Verwendung von Emoticons, die Nennung von anderen Usern, die Zahl der Retweets und die Zahl der vorherigen Meldungen eines Users zum selben Thema werden vom Algorithmus für die Analyse herangezogen.
Die Forscher haben die Software in einem ersten Test an einem Pool aus Tweets ausprobiert, die im Verlauf einiger Tage im Frühjahr 2010 gesammelt wurden. Wenn der Algorithmus mit jeweils einer wahren und einer falschen Meldung zur Analyse gefüttert wird, stuft er die Wahrheit in 86 Prozent der Fälle als glaubwürdiger ein. Bei einem zweiten Test mit Kurznachrichten, die in den 24 Stunden während des Erdbebens in Chile 2010 abgesetzt wurden, erreichte der Algorithmus nach demselben Verfahren immerhin eine Quote von 82 Prozent. pte