Von KI-Inferenzen spricht man, wenn ein KI-Modell Vorhersagen oder Inferenzen erstellt. KI-Training ist der Prozess, der es KI-Modellen ermöglicht, genaue Inferenzen zu ziehen.
Nach Lektüre dieses Artikels können Sie Folgendes:
Link zum Artikel kopieren
In der künstlichen Intelligenz (KI) ist Inferenz der Prozess, bei dem ein trainiertes maschinelles Lernmodell* Schlussfolgerungen aus brandneuen Daten zieht. Ein inferenzfähiges KI-Modell kann dies auch ohne Beispiele für das gewünschte Ergebnis tun. Mit anderen Worten: Inferenz ist ein KI-Modell in Aktion.
Ein Beispiel für KI-Inferenz wäre ein selbstfahrendes Auto, das in der Lage ist, ein Stoppschild auch auf einer Straße zu erkennen, die es zuvor noch nie befahren hat. Der Prozess, dieses Stoppschild in einem neuen Kontext zu erkennen, ist Inferenz.
Ein anderes Beispiel: Ein maschinelles Lernmodell, das auf der Grundlage früherer Leistungen von Profisportlern trainiert wurde, könnte Vorhersagen über die künftige Leistung eines bestimmten Sportlers treffen, noch bevor dieser einen Vertrag unterschrieben hat. Eine solche Vorhersage ist eine Inferenz.
*Maschinelles Lernen ist eine Form der KI.
Um Stoppschilder an neuen Orten erkennen zu können (oder die Leistung eines Profisportlers vorherzusagen), durchlaufen maschinelle Lernmodelle einen Trainingsprozess. Für das autonome Fahrzeug haben die Entwickler dem Modell Tausende oder Millionen von Bildern von Stoppschildern gezeigt. Ein Fahrzeug, in dem das Modell läuft, konnte sogar auf der Straße gefahren werden (mit einem menschlichen Fahrer als Unterstützung), sodass es durch Versuch und Irrtum lernen konnte. Nach ausreichendem Training war das Modell schließlich in der Lage, selbstständig Stoppschilder zu erkennen.
Fast alle realen Anwendungen von KI basieren auf KI-Inferenz. Einige der am häufigsten verwendeten Beispiele sind:
Beim KI-Training geht es im Wesentlichen darum, KI-Modelle mit großen Datensätzen zu füttern. Diese Datensätze können strukturiert oder unstrukturiert, beschriftet oder unbeschriftet sein. Einige Modelle benötigen spezifische Beispiele für Eingaben und die gewünschten Ausgaben. Andere Modelle – wie Deep-Learning-Modelle – benötigen lediglich Rohdaten. Mit der Zeit lernen die Modelle, Muster oder Korrelationen zu erkennen, und können dann auf der Grundlage neuer Eingaben Inferenzen ziehen.
Mit fortschreitendem Training müssen die Entwickler die Modelle möglicherweise noch verfeinern. Sie lassen das Modell unmittelbar nach dem anfänglichen Trainingsprozess einige Inferenzen ziehen und korrigieren dann die Ergebnisse. Stellen Sie sich vor, ein KI-Modell soll aus einem Datensatz von Haustierfotos die Fotos von Hunden identifizieren. Wenn das Modell stattdessen Katzenfotos erkennt, muss es angepasst werden.
KI-Programme erweitern die Fähigkeiten von Computern weit über das bisher Mögliche hinaus. Der Preis dafür ist jedoch ein viel höherer Verbrauch an Rechenleistung als bei herkömmlichen Computerprogrammen. Für einen Menschen erfordert das Lösen einer komplexen mathematischen Gleichung schließlich auch mehr Aufmerksamkeit und Konzentration als das Lösen von „2 + 2“.
Das Training eines KI-Modells kann in Bezug auf die Rechenleistung sehr teuer sein. Dies ist jedoch mehr oder weniger eine einmalige Ausgabe. Wenn ein Modell einmal richtig trainiert ist, muss es im Idealfall nicht mehr trainiert werden.
Die Inferenz geht jedoch weiter. Wenn ein Modell aktiv verwendet wird, wendet es sein Training ständig auf neue Daten an und zieht weitere Inferenzen. Dies erfordert viel Rechenleistung und kann sehr kostspielig sein.
Cloudflare Workers AI bietet Entwicklern Zugang zu GPUs auf der ganzen Welt, um KI-Aufgaben auszuführen. Diese Funktion ist mit Vectorize gekoppelt, einem Dienst zur Erzeugung und Speicherung von Einbettungen maschineller Lernmodelle. Cloudflare bietet auch einen kostengünstigen Objektspeicher für die Verwaltung von Sammlungen von Trainingsdaten an – R2, eine Speicherplattform, die keine Gebühren für ausgehenden Traffic erhebt.
Erfahren Sie mehr darüber , wie Cloudflare es Entwicklern ermöglicht, KI-Inferenz an der Edge auszuführen.