Halluzinationen: ChatGPT bezichtigt unschuldigen Norweger des Kindermordes

Ein norwegischer Mann wurde fälschlicherweise von ChatGPT als Kindermörder bezeichnet. Das wirft Fragen auf bezüglich der Zuverlässigkeit von KI-Tools.
Artificial Intelligence Applications The logos of Google Gemini, ChatGPT, Microsoft Copilot, Claude by Anthropic, Perplexity, and Bing apps are displayed on the screen of a smartphone in Reno, United States, on November 21, 2024. Reno United States PUBLICATIONxNOTxINxFRA Copyright: xJaquexSilvax originalFilename: avils-notitle241121_npEH4.jpg
Künstliche Intelligenz durchdringt jetzt bereits unseren Alltag. (© Imago)

In Norwegen wurde ein Mann Opfer einer schwerwiegenden Falschinformation durch ChatGPT: Das KI-Tool behauptete, er sei wegen Mordes an zwei seiner Kinder verurteilt worden. Diese erfundene Anschuldigung führte zu einer Datenschutzbeschwerde gegen OpenAI, unterstützt von der Datenschutzorganisation Noyb.

Der betroffene Norweger, Hjalmar Holmen, erfuhr von der diffamierenden Behauptung, als er ChatGPT nach Informationen über sich selbst fragte. Wie das Newsportal Techcrunch berichtet, enthielt die Antwort des Chatbots auch einige korrekte Details, wie die Tatsache, dass Holmen drei Kinder hat und seine Heimatstadt korrekt benannt wurde.

Noyb argumentiert, dass OpenAI durch die Verbreitung solcher falscher Informationen gegen die Datenschutz-Grundverordnung (DSGVO) verstoße, die die Genauigkeit personenbezogener Daten vorschreibt. Joakim Söderberg, Datenschutzanwalt bei Noyb, betonte: „Sie können nicht einfach falsche Informationen verbreiten und am Ende einen kleinen Disclaimer hinzufügen, der besagt, dass alles, was Sie gesagt haben, möglicherweise nicht wahr ist.“

ChatGPT und die Halluzinationen

Dieser Vorfall wirft ein Schlaglicht auf die sogenannten „Halluzinationen“ von KI-Systemen, bei denen plausible, aber falsche Informationen generiert werden. Solche Fälle können ernsthafte Konsequenzen für die Betroffenen haben und stellen die Zuverlässigkeit von KI-Tools wie ChatGPT infrage.

Die Datenschutzbeschwerde könnte erhebliche Auswirkungen auf OpenAI haben, da nach der DSGVO bei Verstößen Geldbußen von bis zu 4 Prozent des weltweiten Jahresumsatzes drohen. Bereits zuvor hatte die italienische Datenschutzbehörde OpenAI mit einer Geldstrafe von 15 Millionen Euro belegt, nachdem ChatGPT ohne angemessene rechtliche Grundlage personenbezogene Daten verarbeitet hatte.

Es bleibt abzuwarten, wie die europäischen Datenschutzbehörden auf diese neue Beschwerde reagieren und welche Maßnahmen ergriffen werden, um die Verbreitung falscher Informationen durch KI-Systeme zu verhindern.

(amx, Jahrgang 1989) ist seit Juli 2022 Redakteur bei der absatzwirtschaft. Er ist weder Native noch Immigrant, doch auf jeden Fall Digital. Der Wahlberliner mit einem Faible für Nischenthemen verfügt über ein breites Interessenspektrum, was sich bei ihm auch beruflich niederschlägt: So hat er bereits beim Playboy, in der Agentur C3 sowie beim Branchendienst Meedia gearbeitet.