KI-Halluzinationen sind inkorrekte oder falsche Antworten von generativen KI-Modellen.
Nach Lektüre dieses Artikels können Sie Folgendes:
Link zum Artikel kopieren
Halluzinationen der künstlichen Intelligenz (KI) sind Unwahrheiten oder Ungenauigkeiten in der Ausgabe eines generativen KI-Modells. Häufig sind diese Fehler in Inhalten versteckt, die logisch oder anderweitig korrekt erscheinen. Mit zunehmender Verbreitung von generativer KI und großen Sprachmodellen (LLM) wurden viele Fälle von KI-Halluzinationen beobachtet.
Der Begriff der „Halluzination“ ist lediglich metaphorisch gemeint: KI-Modelle leiden nicht wirklich unter Wahnvorstellungen, wie es bei einem psychisch kranken Menschen der Fall sein könnte. Stattdessen produzieren sie als Reaktion auf Prompts unerwartete Outputs, die nicht der Realität entsprechen. Sie können Muster falsch erkennen, den Kontext falsch verstehen oder auf begrenzte oder verzerrte Daten zurückgreifen, um unerwartete Ergebnisse zu erhalten.
Einige dokumentierte Beispiele für KI-Halluzinationen sind:
Obwohl es eine Reihe von Anwendungsfällen und realen Anwendungen für KI gibt, bedeutet die Anfälligkeit von KI-Modellen für Halluzinationen in vielen Fällen, dass man sich ohne menschliche Kontrolle nicht vollständig auf sie verlassen kann.
Alle KI-Modelle bestehen aus einer Kombination aus Trainingsdaten und einem Algorithmus. Ein Algorithmus ist im Kontext der KI eine Reihe von Regeln, die festlegen, wie ein Computerprogramm bestimmte Attribute gewichten oder bewerten soll. KI-Algorithmen enthalten Milliarden von Parametern – die Regeln für die Bewertung von Attributen.
Generative KI benötigt Trainingsdaten, da sie durch die Eingabe von Millionen (oder Milliarden, oder Billionen) von Beispielen lernt. Anhand dieser Beispiele lernen generative KI-Modelle, Beziehungen zwischen Elementen in einem Datensatz zu erkennen, üblicherweise unter Verwendung von Vektordatenbanken, in denen die Daten als Vektoren gespeichert sind, so dass die Modelle die Beziehungen zwischen Datenelementen quantifizieren und messen können. (Ein Vektor ist eine numerische Darstellung verschiedener Datentypen, einschließlich nicht-mathematischer Typen wie Wörter oder Bilder).
Sobald das Modell trainiert ist, verfeinert es seine Ausgabe auf der Grundlage der erhaltenen Prompts. Die Entwickler verfeinern das Modell auch für spezifischere Anwendungen, indem sie die Parameter des Algorithmus weiter verändern oder Methoden wie die Low-Rank-Anpassung (LoRA) verwenden, um das Modell schnell an eine neue Anwendung anzupassen.
Das Ergebnis ist ein Modell, das auf menschliche Eingaben reagieren kann, indem es Text oder Bilder auf der Grundlage der gesehenen Muster generiert.
Menschliche Prompts können jedoch von sehr unterschiedlicher Komplexität sein und zu unerwartetem Verhalten des Modells führen, da es unmöglich ist, das Modell auf alle möglichen Prompts vorzubereiten. Außerdem kann das Modell die Beziehungen zwischen Konzepten und Elementen auch nach umfangreichem Training und Feinabstimmung falsch verstehen oder interpretieren. Unerwartete Prompts und Fehlwahrnehmungen von Mustern können zu KI-Halluzinationen führen.
Quellen der Trainingsdaten: Es ist schwer, Trainingsdaten zu überprüfen, da KI-Modelle so viele Daten benötigen, dass ein Mensch sie nicht alle überprüfen kann. Ungeprüfte Trainingsdaten können falsch oder in eine bestimmte Richtung zu stark gewichtet sein. Man stelle sich ein KI-Modell vor, das darauf trainiert wurde, Grußkarten zu schreiben, dessen Trainingsdatensatz jedoch hauptsächlich Geburtstagskarten enthält, ohne dass die Entwickler dies wissen. Daraus könnte sich ergeben, dass das Modell in unangemessenen Kontexten fröhliche oder seltsame Nachrichten generiert, z. B. wenn Sie aufgefordert werden, eine Karte mit Genesungswünschen zu schreiben.
Inhärente Grenzen des generativen KI-Designs: KI-Modelle verwenden Wahrscheinlichkeiten, um vorherzusagen, welche Wörter oder visuellen Elemente wahrscheinlich zusammen auftreten werden. Statistische Analysen können einem Computer helfen, plausibel erscheinende Inhalte zu erstellen, die mit hoher Wahrscheinlichkeit von Menschen verstanden werden. Die statistische Analyse ist jedoch ein mathematischer Prozess, bei dem einige Nuancen der Sprache und Bedeutung nicht erkannt werden, was zu Halluzinationen führen kann.
Fehlende direkte Erfahrung der physischen Welt: Die heutigen KI-Programme können nicht erkennen, ob etwas in einer externen Realität wahr oder falsch ist. Während ein Mensch z. B. durch Experimente herausfinden kann, ob ein wissenschaftliches Prinzip wahr oder falsch ist, kann eine KI derzeit nur an bereits existierenden Inhalten und nicht direkt an der realen Welt trainiert werden. Die KI kann daher nur schwer zwischen korrekten und inkorrekten Daten unterscheiden, insbesondere in Bezug auf ihre eigenen Antworten.
Schwierigkeiten beim Kontextverständnis: KI betrachtet nur wörtliche Daten und versteht unter Umständen den kulturellen oder emotionalen Kontext nicht, was zu irrelevanten Antworten und KI-Halluzinationen führt. Beispielsweise kann Satire die KI verwirren (auch Menschen verwechseln oft Satire mit Fakten).
Voreingenommenheit: Die verwendeten Trainingsdaten können zu einer systematischen Voreingenommenheit führen, wenn der Datensatz nicht umfangreich genug ist. Voreingenommenheit kann KI-Modelle schnell in Richtung bestimmter Antworten verzerren oder sogar zur Verbreitung rassistischen oder sexistischen Vorurteilen führen.
Angriffe auf das Modell: Böswillige können Prompt-Injection-Angriffe einsetzen, um das Verständnis generativer KI-Modelle für Prompts und die Generierung von Ergebnissen zu verändern. Ein sehr prominentes Beispiel ereignete sich 2016, als Microsoft den Chatbot Tay einführte, der innerhalb eines Tages begann, rassistische und sexistische Inhalte zu generieren, weil Twitter-Nutzer (jetzt X) ihn mit Informationen fütterten, die seine Antworten verzerrten. KI-Modelle sind inzwischen zwar ausgefeilter geworden, aber sie sind immer noch anfällig für solche Angriffe.
Überanpassung: Wenn ein KI-Modell zu stark mit seinem ursprünglichen Trainingsdatensatz trainiert wird, verliert es möglicherweise die Fähigkeit, zu verallgemeinern, Trends zu erkennen oder aus neuen Daten präzise Schlussfolgerungen zu ziehen. Er kann auch Muster in seinen Trainingsdaten erkennen, die nicht wirklich signifikant sind, was zu Fehlern führt, die erst deutlich werden, wenn er mit neuen Daten gefüttert wird. Diese Szenarien werden als Überanpassung bezeichnet: Die Modelle passen sich zu genau an ihre Trainingsdaten an. Ein Beispiel für diese Überanpassung: Während der COVID-19-Pandemie begannen KI-Modelle , die auf Scans von COVID-Patienten in Krankenhäusern trainiert wurden, die von den Krankenhäusern verwendete Schriftart zu erkennen und die Schriftart als Prädiktor für die COVID-Diagnose zu verwenden. Bei Modellen generativer KI kann diese Überanpassung zu Halluzinationen führen.
Auch wenn Entwickler KI-Halluzinationen nicht vollständig ausschließen können, gibt es doch konkrete Schritte, die sie unternehmen können, um Halluzinationen und andere Ungenauigkeiten weniger wahrscheinlich zu machen.
Erfahren Sie, wie Cloudflare for AI Entwicklern hilft, KI-Modelle von überall auf der Welt zu erstellen und auszuführen. Und entdecken Sie, wie Cloudflare Vectorize es Entwicklern ermöglicht, Einbettungen in einer global verteilten Vektordatenbank zu erzeugen und zu speichern.