Was sind Halluzinationen von künstlicher Intelligenz (KI)?

KI-Halluzinationen sind inkorrekte oder falsche Antworten von generativen KI-Modellen.

Lernziele

Nach Lektüre dieses Artikels können Sie Folgendes:

  • KI-Halluzinationen definieren und Beispiele geben
  • Einige der Ursachen für KI-Halluzinationen beschreiben
  • Schritte zur Prävention von KI-Halluzinationen beschreiben

Link zum Artikel kopieren

Was sind Halluzinationen von künstlicher Intelligenz (KI)?

Halluzinationen der künstlichen Intelligenz (KI) sind Unwahrheiten oder Ungenauigkeiten in der Ausgabe eines generativen KI-Modells. Häufig sind diese Fehler in Inhalten versteckt, die logisch oder anderweitig korrekt erscheinen. Mit zunehmender Verbreitung von generativer KI und großen Sprachmodellen (LLM) wurden viele Fälle von KI-Halluzinationen beobachtet.

Der Begriff der „Halluzination“ ist lediglich metaphorisch gemeint: KI-Modelle leiden nicht wirklich unter Wahnvorstellungen, wie es bei einem psychisch kranken Menschen der Fall sein könnte. Stattdessen produzieren sie als Reaktion auf Prompts unerwartete Outputs, die nicht der Realität entsprechen. Sie können Muster falsch erkennen, den Kontext falsch verstehen oder auf begrenzte oder verzerrte Daten zurückgreifen, um unerwartete Ergebnisse zu erhalten.

Einige dokumentierte Beispiele für KI-Halluzinationen sind:

  • Ein KI-Modell wurde gebeten, über die Quartalsergebnisse von Tesla zu schreiben, und erzeugte einen zusammenhängenden Artikel, jedoch mit falschen Finanzinformationen
  • Ein Anwalt nutzte ein LLM, um unterstützendes Material in einem Rechtsfall zu erstellen, aber das LLM erzeugte Verweise auf andere Rechtsfälle, die nicht existierten
  • Das Bildgenerierungstool Gemini von Google erzeugte im Jahr 2024 über einen bestimmten Zeitraum regelmäßig regelmäßig inkorrekte Bilder

Obwohl es eine Reihe von Anwendungsfällen und realen Anwendungen für KI gibt, bedeutet die Anfälligkeit von KI-Modellen für Halluzinationen in vielen Fällen, dass man sich ohne menschliche Kontrolle nicht vollständig auf sie verlassen kann.

Wie funktioniert generative KI?

Alle KI-Modelle bestehen aus einer Kombination aus Trainingsdaten und einem Algorithmus. Ein Algorithmus ist im Kontext der KI eine Reihe von Regeln, die festlegen, wie ein Computerprogramm bestimmte Attribute gewichten oder bewerten soll. KI-Algorithmen enthalten Milliarden von Parametern – die Regeln für die Bewertung von Attributen.

Generative KI benötigt Trainingsdaten, da sie durch die Eingabe von Millionen (oder Milliarden, oder Billionen) von Beispielen lernt. Anhand dieser Beispiele lernen generative KI-Modelle, Beziehungen zwischen Elementen in einem Datensatz zu erkennen, üblicherweise unter Verwendung von Vektordatenbanken, in denen die Daten als Vektoren gespeichert sind, so dass die Modelle die Beziehungen zwischen Datenelementen quantifizieren und messen können. (Ein Vektor ist eine numerische Darstellung verschiedener Datentypen, einschließlich nicht-mathematischer Typen wie Wörter oder Bilder).

Sobald das Modell trainiert ist, verfeinert es seine Ausgabe auf der Grundlage der erhaltenen Prompts. Die Entwickler verfeinern das Modell auch für spezifischere Anwendungen, indem sie die Parameter des Algorithmus weiter verändern oder Methoden wie die Low-Rank-Anpassung (LoRA) verwenden, um das Modell schnell an eine neue Anwendung anzupassen.

Das Ergebnis ist ein Modell, das auf menschliche Eingaben reagieren kann, indem es Text oder Bilder auf der Grundlage der gesehenen Muster generiert.

Menschliche Prompts können jedoch von sehr unterschiedlicher Komplexität sein und zu unerwartetem Verhalten des Modells führen, da es unmöglich ist, das Modell auf alle möglichen Prompts vorzubereiten. Außerdem kann das Modell die Beziehungen zwischen Konzepten und Elementen auch nach umfangreichem Training und Feinabstimmung falsch verstehen oder interpretieren. Unerwartete Prompts und Fehlwahrnehmungen von Mustern können zu KI-Halluzinationen führen.

Was löst bei KI Halluzinationen aus?

Quellen der Trainingsdaten: Es ist schwer, Trainingsdaten zu überprüfen, da KI-Modelle so viele Daten benötigen, dass ein Mensch sie nicht alle überprüfen kann. Ungeprüfte Trainingsdaten können falsch oder in eine bestimmte Richtung zu stark gewichtet sein. Man stelle sich ein KI-Modell vor, das darauf trainiert wurde, Grußkarten zu schreiben, dessen Trainingsdatensatz jedoch hauptsächlich Geburtstagskarten enthält, ohne dass die Entwickler dies wissen. Daraus könnte sich ergeben, dass das Modell in unangemessenen Kontexten fröhliche oder seltsame Nachrichten generiert, z. B. wenn Sie aufgefordert werden, eine Karte mit Genesungswünschen zu schreiben.

Inhärente Grenzen des generativen KI-Designs: KI-Modelle verwenden Wahrscheinlichkeiten, um vorherzusagen, welche Wörter oder visuellen Elemente wahrscheinlich zusammen auftreten werden. Statistische Analysen können einem Computer helfen, plausibel erscheinende Inhalte zu erstellen, die mit hoher Wahrscheinlichkeit von Menschen verstanden werden. Die statistische Analyse ist jedoch ein mathematischer Prozess, bei dem einige Nuancen der Sprache und Bedeutung nicht erkannt werden, was zu Halluzinationen führen kann.

Fehlende direkte Erfahrung der physischen Welt: Die heutigen KI-Programme können nicht erkennen, ob etwas in einer externen Realität wahr oder falsch ist. Während ein Mensch z. B. durch Experimente herausfinden kann, ob ein wissenschaftliches Prinzip wahr oder falsch ist, kann eine KI derzeit nur an bereits existierenden Inhalten und nicht direkt an der realen Welt trainiert werden. Die KI kann daher nur schwer zwischen korrekten und inkorrekten Daten unterscheiden, insbesondere in Bezug auf ihre eigenen Antworten.

Schwierigkeiten beim Kontextverständnis: KI betrachtet nur wörtliche Daten und versteht unter Umständen den kulturellen oder emotionalen Kontext nicht, was zu irrelevanten Antworten und KI-Halluzinationen führt. Beispielsweise kann Satire die KI verwirren (auch Menschen verwechseln oft Satire mit Fakten).

Voreingenommenheit: Die verwendeten Trainingsdaten können zu einer systematischen Voreingenommenheit führen, wenn der Datensatz nicht umfangreich genug ist. Voreingenommenheit kann KI-Modelle schnell in Richtung bestimmter Antworten verzerren oder sogar zur Verbreitung rassistischen oder sexistischen Vorurteilen führen.

Angriffe auf das Modell: Böswillige können Prompt-Injection-Angriffe einsetzen, um das Verständnis generativer KI-Modelle für Prompts und die Generierung von Ergebnissen zu verändern. Ein sehr prominentes Beispiel ereignete sich 2016, als Microsoft den Chatbot Tay einführte, der innerhalb eines Tages begann, rassistische und sexistische Inhalte zu generieren, weil Twitter-Nutzer (jetzt X) ihn mit Informationen fütterten, die seine Antworten verzerrten. KI-Modelle sind inzwischen zwar ausgefeilter geworden, aber sie sind immer noch anfällig für solche Angriffe.

Überanpassung: Wenn ein KI-Modell zu stark mit seinem ursprünglichen Trainingsdatensatz trainiert wird, verliert es möglicherweise die Fähigkeit, zu verallgemeinern, Trends zu erkennen oder aus neuen Daten präzise Schlussfolgerungen zu ziehen. Er kann auch Muster in seinen Trainingsdaten erkennen, die nicht wirklich signifikant sind, was zu Fehlern führt, die erst deutlich werden, wenn er mit neuen Daten gefüttert wird. Diese Szenarien werden als Überanpassung bezeichnet: Die Modelle passen sich zu genau an ihre Trainingsdaten an. Ein Beispiel für diese Überanpassung: Während der COVID-19-Pandemie begannen KI-Modelle , die auf Scans von COVID-Patienten in Krankenhäusern trainiert wurden, die von den Krankenhäusern verwendete Schriftart zu erkennen und die Schriftart als Prädiktor für die COVID-Diagnose zu verwenden. Bei Modellen generativer KI kann diese Überanpassung zu Halluzinationen führen.

Wie können KI-Entwickler KI-Halluzinationen verhindern?

Auch wenn Entwickler KI-Halluzinationen nicht vollständig ausschließen können, gibt es doch konkrete Schritte, die sie unternehmen können, um Halluzinationen und andere Ungenauigkeiten weniger wahrscheinlich zu machen.

  • Mehr Daten und bessere Daten: Große Datensätze aus verschiedenen Quellen können dazu beitragen, Voreingenommenheit zu beseitigen und den Modellen zu helfen, Trends und Muster in einer größeren Datenvielfalt zu erkennen.
  • Überanpassung vermeiden: Entwickler sollten versuchen, ein KI-Modell nicht zu stark auf einen Datensatz zu trainieren.
  • Umfassende Tests: KI-Modelle sollten in einer Reihe von Kontexten und mit unerwarteten Prompts getestet werden.
  • Verwendung von Modellen, die für den Anwendungsfall entwickelt wurden: Ein LLM-Chatbot ist beispielsweise nicht gut für die Beantwortung sachlicher Abfragen über medizinische Forschung geeignet.
  • Kontinuierliche Verbesserung: Selbst das am besten abgestimmte Modell kann blinde Flecken haben. KI-Modelle sollten weiterhin aus den Prompts, die sie erhalten, lernen (mit Validierung, um Prompt-Injection-Angriffe zu verhindern).
  • Leitplanken für generative KI-Chatbots aufstellen: Ein Retrieval Augmented Generation (RAG)-Chatbot, der Zugriff auf unternehmensspezifische Daten hat, um die Antworten zu verbessern, könnte immer noch halluzinieren. Entwickler können Leitplanken implementieren, die den Chatbot beispielsweise sagen lassen: „Ich habe nicht genug Informationen, um diese Frage zu beantworten“, wenn er die Antwort nicht finden kann, anstatt eine Antwort zu erfinden.

Erfahren Sie, wie Cloudflare for AI Entwicklern hilft, KI-Modelle von überall auf der Welt zu erstellen und auszuführen. Und entdecken Sie, wie Cloudflare Vectorize es Entwicklern ermöglicht, Einbettungen in einer global verteilten Vektordatenbank zu erzeugen und zu speichern.