Beim Facebook-Konzern Meta sollen Nutzer künftig vorwarnen, wenn sie täuschend echt wirkende KI-Videos oder -Audiodateien veröffentlichen. Versäumen sie dies, könnten ihnen Konsequenzen drohen, warnte Metas Politik-Chef Nick Clegg am Dienstag in einem Blogeintrag. Auf Grundlage der Hinweise will der Konzern in seinen Diensten solche mit Hilfe Künstlicher Intelligenz erstellte Inhalte kennzeichnen. Zu Meta gehören neben Facebook unter anderem auch Instagram und WhatsApp.
Die Aufforderung an die Nutzer sei erforderlich, weil es in KI-Software zum Erstellen von Videos und Ton-Dateien noch nicht so üblich wie bei Fotos sei, unsichtbare Wasserzeichen zu integrieren, erläuterte Clegg. Zugleich schränkte er ein, dass es Wege gebe, diese Wasserzeichen zu entfernen. Meta arbeite aber daran, dies zu erschweren. Die Idee dabei sei, die Wasserzeichen direkt in die Erstellung der Dateien zu integrieren, so dass sie nicht deaktiviert werden könnten. Auch entwickele der Konzern Technologie, um mit KI generierte Inhalte automatisch zu erkennen.
KI-Fälschungen in US-Präsidentenwahlkampf
In den USA hatten vor wenigen Wochen automatisierte Anrufe mit einer täuschend echt klingenden Nachahmung der Stimme von Präsident Joe Biden für Alarmstimmung gesorgt. Die Botschaft der Anrufe war, nicht an der Vorwahl der Demokratischen Partei im Bundesstaat New Hampshire teilzunehmen. Der Vorfall schürte die Sorge, in den kommenden Monaten könnte es Versuche geben, den Ausgang der Präsidentenwahl im November mit der Verbreitung täuschend echter KI-Fälschungen zu beeinflussen.
Meta ist Teil einer Branchen-Koalition, die Standard-Technologien für die Auszeichnung der mit Hilfe von KI generierten Dateien etablieren will. Meta wolle auf dieser Grundlage KI-Bilder in den Apps Facebook, Instagram und Threads in allen unterstützten Sprachen auszeichnen. Der Konzern hat auch selbst KI-Software zum Erstellen von Bildern über Text-Vorgaben im Angebot. Diese Dateien enthalten sowohl sichtbare Markierungen als auch unsichtbare Wasserzeichen.
tht/dpa