Edge-Computing optimiert Internetgeräte und Webanwendungen, indem es das Computing näher an die Datenquelle verlegt. Das minimiert die Notwendigkeit der Fernkommunikation zwischen Client und Server, was wiederum die Latenz und die Bandbreitennutzung reduziert.
Nach Lektüre dieses Artikels können Sie Folgendes:
Link zum Artikel kopieren
Edge-Computing ist eine Netzwerkphilosophie, die darauf gerichtet ist, das Computing so nah wie möglich an die Datenquelle zu bringen, um Latenz und Bandbreitennutzung zu reduzieren. Einfacher ausgedrückt bedeutet Edge-Computing, weniger Prozesse in der Cloud auszuführen und diese Prozesse an lokale Standorte zu verschieben, z. B. auf Computer von Nutzern, ein IoT-Gerät oder einen Edge-Server. Das Verlegen der Datenverarbeitung an den Rand des Netzwerks minimiert das Ausmaß der Fernkommunikation zwischen Client und Server.
Bei Internetgeräten ist der Netzwerkrand der Ort, an dem das Gerät oder das lokale Netzwerk, das das Gerät enthält, mit dem Internet kommuniziert. Der Begriff Rand oder Edge ist etwas unscharf. Beispielsweise können die Computer von Nutzern oder der Prozessor in einer IoT-Kamera als Netzwerkrand angesehen werden, aber auch Router, ISPs oder lokale Edge-Server der Nutzer gelten als Rand. Der wichtige Aspekt ist, dass sich der Rand des Netzwerks geografisch in der Nähe des Geräts befindet, im Gegensatz zu Ursprungsservern und Cloud-Servern, die sehr weit von den Geräten entfernt sein können, mit denen sie kommunizieren.
Die ersten Computer waren große, sperrige Geräte, auf die man nur direkt oder über Terminals zugreifen konnte, die im Grunde eine Erweiterung des Computers waren. Mit der Erfindung von Personal Computern (PCs) konnte die Datenverarbeitung in einer viel verteilteren Weise stattfinden. Eine Zeit lang war Personal Computing das vorherrschende Computing-Modell. Anwendungen wurden lokal ausgeführt, Daten wurden lokal am Gerät des Nutzers oder manchmal auch in einem lokalen Rechenzentrum gespeichert.
Cloud Computing, eine noch junge Entwicklung, bietet eine Reihe von Vorteilen gegenüber diesem lokal-basierten On-Premise-Computing. Cloud-Dienste werden in einer vom Anbieter verwalteten „Cloud“ (oder einer Reihe von Rechenzentren) zentralisiert und können von jedem Gerät aus über das Internet abgerufen werden.
Cloud Computing kann jedoch aufgrund der Entfernung zwischen den Nutzern und den Rechenzentren, in denen die Cloud-Dienste gehostet werden, zu Latenzzeiten führen. Edge-Computing rückt die Datenverarbeitung näher an die Endnutzer heran, um die für Daten zurückzulegende Entfernung zu minimieren, während der zentralisierte Charakter des Cloud Computing beibehalten wird.
Zusammengefasst:
Stellen Sie sich ein Gebäude vor, das mit Dutzenden hochauflösender IoT-Videokameras gesichert ist. Das sind „dumme“ Kameras, die einfach ein Rohvideosignal ausgeben und dieses Signal kontinuierlich an einen Cloud-Server streamen. Auf dem Cloud-Server wird die Videoausgabe aller Kameras über eine Anwendung zur Bewegungserkennung weitergeleitet, um sicherzustellen, dass nur Clips mit Aktivität in der Datenbank des Servers gespeichert werden. Das bedeutet, dass die Internetinfrastruktur des Gebäudes ständig enorm belastet wird, da aufgrund des großen Umfangs des übertragenen Videomaterials eine erhebliche Bandbreite verbraucht wird. Darüber hinaus ist der Cloud-Server sehr stark belastet, da er das Videomaterial aller Kameras gleichzeitig verarbeiten muss.
Stellen Sie sich nun vor, dass die Bearbeitung des Bewegungssensors an den Netzwerkrand verlegt wird. Was wäre, wenn in jeder Kamera ein eigener interner Computer die Anwendung zur Bewegungserkennung ausführen und dann das entsprechende Filmmaterial an den Cloud-Server senden würde? Das würde zu einer erheblichen Reduzierung der Bandbreitennutzung führen, da ein Großteil des Kameramaterials niemals zum Cloud-Server übertragen werden müsste.
Außerdem ist der Cloud-Server nur noch für die Speicherung des wichtigen Filmmaterials zuständig, so dass der Server mit einer größeren Anzahl Kameras kommunizieren kann, ohne überlastet zu werden. So sieht Edge-Computing aus. Außerdem ist der Cloud-Server nur noch für die Speicherung des wichtigen Filmmaterials zuständig, so dass der Server mit einer größeren Anzahl Kameras kommunizieren kann, ohne überlastet zu werden. So funktioniert Edge-Computing.
Edge-Computing kann in eine Vielzahl von Anwendungen, Produkten und Diensten integriert werden. Einige Möglichkeiten sind:
Wie aus obigem Beispiel hervorgeht, hilft Edge-Computing, Bandbreitennutzung und Serverressourcen zu minimieren. Bandbreite und Cloud-Ressourcen sind begrenzt und kosten Geld. Da jeder Haushalt und jedes Büro mit intelligenten Kameras, Druckern, Thermostaten und sogar Toastern ausgestattet wird, prognostiziert Statista, dass bis 2025 weltweit über 75 Milliarden IoT-Geräte installiert sind. Um all diese Geräte zu unterstützen, muss ein erhebliche Menge an Computing-Leistung an den Netzwerkrand verschoben werden.
Ein weiterer wesentlicher Vorteil des Verschiebens von Prozessen an den Rand besteht in der Verringerung der Latenz. Jedes Mal, wenn ein Gerät irgendwo mit einem entfernten Server kommunizieren muss, entsteht eine Verzögerung. Beispielsweise kann es bei zwei Mitarbeitern im selben Büro, die über eine IM-Plattform chatten, zu erheblichen Verzögerungen kommen, da jede Nachricht aus dem Gebäude weitergeleitet, mit einem Server irgendwo auf der Welt kommuniziert und zurückgebracht werden muss, bevor sie auf dem Empfängerbildschirm erscheint. Wenn dieser Prozess an den Rand verlegt wird und der interne Router des Unternehmens für die bürointerne Übertragung von Chats zuständig ist, entfällt diese spürbare Verzögerung.
Wenn Benutzer aller möglichen Webanwendungen auf Prozesse treffen, die mit einem externen Server kommunizieren müssen, treten ähnliche Verzögerungen auf. Die Dauer dieser Verzögerungen hängt von der verfügbaren Bandbreite und dem Standort des Servers ab. Diese Verzögerungen können jedoch insgesamt vermieden werden, wenn mehr Prozesse an den Netzwerkrand verlagert werden.
Darüber hinaus kann Edge-Computing neue Funktionalitäten bereitstellen, die zuvor nicht verfügbar waren. Beispielsweise kann ein Unternehmen Edge-Computing nutzen, um seine Daten am Rand zu verarbeiten und zu analysieren, was dies in Echtzeit ermöglicht.
Insgesamt hat das Edge-Computing folgende Vorteile:
Ein Nachteil des Edge-Computing ist, dass es die Zahl der Angriffsvektoren erhöhen kann. Durch das Hinzufügen weiterer „intelligenter“ Geräte wie Edge-Server und IoT-Geräte mit soliden integrierten Computern entstehen für böswillige Angreifer neue Möglichkeiten, diese Geräte zu kompromittieren.
Ein weiterer Nachteil des Edge-Computings besteht darin, dass es mehr lokale Hardware erfordert. Während eine IoT-Kamera beispielsweise einen integrierten Computer benötigt, um ihre Rohvideodaten an einen Webserver zu senden, bräuchte sie einen viel ausgefeilteren Computer mit mehr Rechenleistung, damit sie ihre eigenen Algorithmen zur Bewegungserkennung ausführen kann. Aber die sinkenden Kosten für Hardware machen die Herstellung intelligenterer Geräte billiger.
Eine Möglichkeit, den Bedarf an zusätzlicher Hardware umfassend zu verringern, besteht darin, Edge-Server einzusetzen. Mit dem Cloudflare-Netzwerk von 330 geografisch verteilten Edge-Standorten können Cloudflare-Kunden zum Beispiel Edge-Code weltweit mit Cloudflare Workers ausführen lassen.