Der Unterschied zwischen KI-Inferenz und Training: Was ist KI-Inferenz?

Von KI-Inferenzen spricht man, wenn ein KI-Modell Vorhersagen oder Inferenzen erstellt. KI-Training ist der Prozess, der es KI-Modellen ermöglicht, genaue Inferenzen zu ziehen.

Lernziele

Nach Lektüre dieses Artikels können Sie Folgendes:

  • KI-Inferenz definieren und erklären
  • Zwischen KI-Training und KI-Inferenz unterscheiden
  • Die von KI-Inferenz verwendete Rechenleistung mit der des Trainings vergleichen

Link zum Artikel kopieren

Was ist KI-Inferenz?

In der künstlichen Intelligenz (KI) ist Inferenz der Prozess, bei dem ein trainiertes maschinelles Lernmodell* Schlussfolgerungen aus brandneuen Daten zieht. Ein inferenzfähiges KI-Modell kann dies auch ohne Beispiele für das gewünschte Ergebnis tun. Mit anderen Worten: Inferenz ist ein KI-Modell in Aktion.

Ein Beispiel für KI-Inferenz wäre ein selbstfahrendes Auto, das in der Lage ist, ein Stoppschild auch auf einer Straße zu erkennen, die es zuvor noch nie befahren hat. Der Prozess, dieses Stoppschild in einem neuen Kontext zu erkennen, ist Inferenz.

Ein anderes Beispiel: Ein maschinelles Lernmodell, das auf der Grundlage früherer Leistungen von Profisportlern trainiert wurde, könnte Vorhersagen über die künftige Leistung eines bestimmten Sportlers treffen, noch bevor dieser einen Vertrag unterschrieben hat. Eine solche Vorhersage ist eine Inferenz.

*Maschinelles Lernen ist eine Form der KI.

Der Unterschied zwischen KI-Inferenz und Training

  • Die erste Phase für ein KI-Modell ist das Training. Das Modell kann durch Versuch und Irrtum trainiert werden oder durch einen Prozess, bei dem Beispiele der gewünschten Eingaben und Ausgaben gezeigt werden, oder durch beides.
  • Inferenz ist der Prozess, der sich an das Training der KI anschließt. Je besser ein Modell trainiert und je feiner es abgestimmt ist, desto besser sind seine Inferenzen – auch wenn Fehlerfreiheit nicht garantiert werden kann.

Um Stoppschilder an neuen Orten erkennen zu können (oder die Leistung eines Profisportlers vorherzusagen), durchlaufen maschinelle Lernmodelle einen Trainingsprozess. Für das autonome Fahrzeug haben die Entwickler dem Modell Tausende oder Millionen von Bildern von Stoppschildern gezeigt. Ein Fahrzeug, in dem das Modell läuft, konnte sogar auf der Straße gefahren werden (mit einem menschlichen Fahrer als Unterstützung), sodass es durch Versuch und Irrtum lernen konnte. Nach ausreichendem Training war das Modell schließlich in der Lage, selbstständig Stoppschilder zu erkennen.

Welche Anwendungsfälle gibt es für KI-Inferenz?

Fast alle realen Anwendungen von KI basieren auf KI-Inferenz. Einige der am häufigsten verwendeten Beispiele sind:

  • Große Sprachmodelle (LLM): Ein an Beispieltexten trainiertes Modell kann Texte parsen und interpretieren, auch wenn es diese noch nie zuvor gesehen hat
  • Prädiktive Analysen: Sobald ein Modell mit früheren Daten trainiert wurde und die Inferenzphase erreicht hat, kann es Vorhersagen auf der Grundlage eingehender Daten treffen
  • E-Mail-Sicherheit: Ein maschinelles Lernmodell kann so trainiert werden, dass es Spam-E-Mails oder Kompromittierungsangriffe auf Geschäfts-E-Mails erkennt und dann Rückschlüsse auf eingehende E-Mail-Nachrichten anwenden kann, sodass E-Mail-Sicherheitsfilter böswillige Nachrichten blockieren können
  • Autonomes Fahren: Wie im obigen Beispiel beschrieben, sind Inferenzen für autonome Fahrzeuge von enormer Bedeutung
  • Forschung: Wissenschaftliche und medizinische Forschung basiert auf der Interpretation von Daten und KI-Inferenz ermöglicht es, Schlussfolgerungen aus diesen Daten zu ziehen
  • Finanzen: Ein Modell, das auf der Grundlage vergangener Marktentwicklungen trainiert wurde, kann (nicht garantierte) Schlussfolgerungen über die zukünftigen Marktentwicklungen ziehen

Wie funktioniert KI-Training?

Beim KI-Training geht es im Wesentlichen darum, KI-Modelle mit großen Datensätzen zu füttern. Diese Datensätze können strukturiert oder unstrukturiert, beschriftet oder unbeschriftet sein. Einige Modelle benötigen spezifische Beispiele für Eingaben und die gewünschten Ausgaben. Andere Modelle – wie Deep-Learning-Modelle – benötigen lediglich Rohdaten. Mit der Zeit lernen die Modelle, Muster oder Korrelationen zu erkennen, und können dann auf der Grundlage neuer Eingaben Inferenzen ziehen.

Mit fortschreitendem Training müssen die Entwickler die Modelle möglicherweise noch verfeinern. Sie lassen das Modell unmittelbar nach dem anfänglichen Trainingsprozess einige Inferenzen ziehen und korrigieren dann die Ergebnisse. Stellen Sie sich vor, ein KI-Modell soll aus einem Datensatz von Haustierfotos die Fotos von Hunden identifizieren. Wenn das Modell stattdessen Katzenfotos erkennt, muss es angepasst werden.

Wie unterscheidet sich der Verbrauch von KI-Rechenleistung bei Inferenz und Training?

KI-Programme erweitern die Fähigkeiten von Computern weit über das bisher Mögliche hinaus. Der Preis dafür ist jedoch ein viel höherer Verbrauch an Rechenleistung als bei herkömmlichen Computerprogrammen. Für einen Menschen erfordert das Lösen einer komplexen mathematischen Gleichung schließlich auch mehr Aufmerksamkeit und Konzentration als das Lösen von „2 + 2“.

Das Training eines KI-Modells kann in Bezug auf die Rechenleistung sehr teuer sein. Dies ist jedoch mehr oder weniger eine einmalige Ausgabe. Wenn ein Modell einmal richtig trainiert ist, muss es im Idealfall nicht mehr trainiert werden.

Die Inferenz geht jedoch weiter. Wenn ein Modell aktiv verwendet wird, wendet es sein Training ständig auf neue Daten an und zieht weitere Inferenzen. Dies erfordert viel Rechenleistung und kann sehr kostspielig sein.

Wie ermöglicht Cloudflare Entwicklern die Durchführung von KI-Inferenzen?

Cloudflare Workers AI bietet Entwicklern Zugang zu GPUs auf der ganzen Welt, um KI-Aufgaben auszuführen. Diese Funktion ist mit Vectorize gekoppelt, einem Dienst zur Erzeugung und Speicherung von Einbettungen maschineller Lernmodelle. Cloudflare bietet auch einen kostengünstigen Objektspeicher für die Verwaltung von Sammlungen von Trainingsdaten an – R2, eine Speicherplattform, die keine Gebühren für ausgehenden Traffic erhebt.

Erfahren Sie mehr darüber , wie Cloudflare es Entwicklern ermöglicht, KI-Inferenz an der Edge auszuführen.