ChatGPT bekommt in Deutschland einen neuen starken Konkurrenten. Die Firma Anthropic bringt ihren KI-Chatbot Claude nach Europa. Tests hätten gezeigt, dass Claude sehr gut unter anderem auf Deutsch, Französisch und Italienisch funktioniere, sagte Anthropic-Mitgründer Jack Clark der Deutschen Presse-Agentur zum Start am Dienstag. Ähnlich wie ChatGPT kann Claude mit Hilfe Künstlicher Intelligenz unter anderem Sätze auf dem Niveau eines Menschen formulieren und den Inhalt von Texten zusammenfassen. In Europa werden die Web-Version, die iPhone-App und eine Variante für Unternehmen verfügbar sein.
Anthropic brachte im März die aktuelle Generation Claude 3 heraus, die in einigen technischen Tests die Leistung des GPT-4-Modells des ChatGPT-Entwicklers OpenAI übertraf. Wenige Stunden vor Bekanntgabe des Europa-Starts von Claude stellte OpenAI allerdings eine sprechende Version von ChatGPT vor, die sich mit Nutzern wie ein Mensch unterhalten kann. Dabei geht die Software auch auf visuelle Informationen ein, die sie über die Smartphone-Kamera bekommt. Von Google werden bei der Entwicklerkonferenz am Dienstag ebenfalls Neuerungen bei KI-Assistenten erwartet.
Kundendaten seien stets verschlüsselt
Anthropic verwies darauf, dass Claude auch lange Texte zusammenfassen und Fragen dazu beantworten kann. Damit könne die Software besonders nützlich unter anderem für Rechtsexpert*innen sowie in der Medizin und Finanzbranche sein, betonte Mitgründer Jared Kaplan. Die Firma sieht bislang keine Datenspeicherung in Europa vor, sei aber offen dafür, wenn Kund*innen sich das wünschen sollten. Zugleich seien Kundendaten stets verschlüsselt und damit nur für sie zugänglich.
Anthropic sei auch erfolgreich damit gewesen, sogenannte „Halluzinationen“ zu reduzieren, bei denen die Software falsche Angaben macht, sagte Kaplan. Die „Halluzinationen“ sind ein grundsätzliches Problem von KI-Programmen, die mit ihrer Funktionsweise zusammenhängen. Die Software wird mit riesigen Mengen an Informationen angelernt. Beim Formulieren von Texten entscheidet sie Wort für Wort, wie ein Satz wahrscheinlich weitergehen soll. Dabei können völlig falsche Angaben herauskommen, selbst wenn die KI-Modelle nur mit korrekten Informationen gefüttert wurden. Anthropic versucht bei Claude, solche Fehler durch den Abgleich mit Fakten zu minimieren. Auf ähnliche Weise wird auch mit Grundsatz-Regeln abgeglichen, um Beleidigungen oder Diskriminierung zu verhindern.
img/dpa