Während OpenAI ständig neue Produkte ankündigt, die potenziell ganze Branchen revolutionieren könnten, habe ich bemerkt, dass sie oft hinter ihren eigenen Zeitplänen zurückbleiben. Besonders frustrierend finde ich, dass der Nachfolger von GPT-4 auf sich warten lässt.
Zum Glück holt die Konkurrenz auf, denn Wettbewerb belebt das Geschäft. Dennoch kämpfen alle Modelle, die ich kenne, weiterhin mit Halluzinationen, was bedeutet, dass immer noch menschliche Kontrolle erforderlich ist.
Vor kurzem habe ich bei einem Projekt erlebt, wie wichtig diese Kontrolle ist, als ein KI-Modell eine völlig falsche Information über ein wissenschaftliches Thema generierte. Ein anderes Mal versuchte ich, eine komplexe Tabelle mit ChatGPT zu analysieren, und obwohl es eine große Hilfe war, musste ich einige der Ergebnisse manuell korrigieren.
Daher überlege ich mir genau, für welchen Anwendungsfall und mit welchem Freiheitsgrad ich Sprachmodelle verwende. KI ist absolut faszinierend und bietet stetig mehr Use Cases, aber man sollte ihre Grenzen nicht aus den Augen verlieren. Die richtigen Tools für spezifische Aufgaben zu finden und deren Ergebnisse kritisch zu hinterfragen, bleibt eine wichtige Aufgabe.