Edge Computing verständlich erklärt

Edge Computing bezeichnet den Einsatz von Algorithmen und Datenverarbeitung auf mobilen Geräten. Der Gegensatz zu dieser dezentralen Herangehensweise sind zentrale Rechenzentren oder die Cloud. Was die genaue Idee hinter Edge Computing ist, welche Vor- und Nachteile es mit sich bringt und einige Beispiele als Inspiration bietet dieser Artikel.

Inhaltsverzeichnis

Was ist Edge Computing? Definition und Erklärung

Edge Computing bezeichnet das Konzept, dass Berechnungen auf lokalen Geräten statt auf Servern durchgeführt werden. Die “Edge” ist in diesem Sinne der Rand des Netzwerks, statt die zentralisierten Rechenkapazitäten. 

Als Edge Devices zählt eine Vielfalt an technischen Geräten, unter anderem Mobiltelefone, Laptops, Tablets, Sensoren und Einplatinencomputer (z.B. Raspberry Pi). Jedes dieser Geräte ist ein eigenständiges Gerät, das Daten erfassen und Berechnungen durchführen kann.

Sensoren, Mobiltelefone, Laptops und einfache Computer gelten als Edge Devices, auf denen Edge Computing statt findet.
Sensoren, Mobiltelefone, Laptops und einfache Computer gelten als Edge Devices, auf denen Edge Computing statt findet.

Genau bei diesem Aspekt – dezentralisierte Datenverarbeitung und -berechnung – setzt Edge Computing an. Die grundlegende Idee ist, dass man die Edge Devices in einem Netzwerk (z.B. die Sensoren in einer Fabrik oder die Handys der Aussendienstmitarbeiter) dazu nutzt, Daten zu erfassen, darauf basierend Ergebnisse oder Vorhersagen zu berechnen und auszuspielen. 

Der Unterschied zu momentan vorherrschenden Business Architekturen ist, dass Edge Computing nicht direkt auf ein zentralisiertes Rechenzentrum zugreift, sondern lokal die Verarbeitung durchführt. Während die Algorithmen und Programme zur Verarbeitung von zentralisierten Strukturen orchestriert werden (z.B. mittels Containerisation), werden jedoch die Edge Devices genutzt um sie auszuführen. Eine Synchronisierung mit dem Rechenzentrum kann weiterhin stattfinden, blockiert aber nicht die Ausgabe der Ergebnisse.

Einfach gesagt soll Edge Computing das Problem lösen, dass es immer mehr Anforderer (Clients) von Verarbeitung von Daten gibt, die Bottlenecks jedoch oft Internetverbindung (zum Beispiel im Aussendienst) oder Skalierung der Ressourcen sind. Dazu werden die immer stärker werdenden Einzelgeräte genutzt, um solche Aufgaben direkt auszuführen, statt erst transferiert und folgend abgerufen zu werden.

Einordnung in das Internet der Dinge (IoT)

Das Internet of Things (IoT) ist mitunter der größte Anforderer von Edge Computing, gleichermaßen aber auch der größte Profiteur. Durch die immense Erhöhung an Edge Devices durch das Internet der Dinge, die damit entstehenden riesigen Datenmengen, entsteht eine sehr große Anforderung an Rechenleistung.

Diese Rechenleistung ist kaum zentralisiert zu bewältigen, selbst wenn man auf skalierbares Cloud Computing zurückgreift. Weiterhin agieren derartige Geräte (z.B. Sensoren) oft in Umgebungen, die keine oder eine unzuverlässige Internetverbindung bereitstellen. Folglich würden Ergebnisse oder Reaktionen von solchen Daten zu lange dauern.

Daher benötigt IoT nicht notwendig Edge Computing (z.B. falls Daten nur erfasst werden), aber in den meisten Fällen so es ein sehr interaktives oder reaktives Edge Device sein soll, müssen zumindest rudimentäre Aktionen lokal berechnet werden. Daher gehen Edge Computing und das Internet of Things meist Hand in Hand.

Edge vs. Cloud Computing

Wie bereits erläutert, bedeutet Edge Computing, dass Daten lokal erfasst und verarbeitet werden. Im Gegensatz dazu steht das Cloud Computing, also die zentrale Bereitstellung von Rechenkapazitäten mittels skalierbarer Rechenzentren (z.B. Amazon Web Services). 

Diese beiden gegensätzlichen Prinzipien (dezentral vs. zentral) sind bei der Idee des Edge Computing jedoch mehr verbunden als man initial vermuten mag. Denn die Algorithmen und (Machine Learning) Modelle, die auf Edge Devices rechnen, müssen aktualisiert und gepflegt werden. Dies ist nur möglich, so man aktuelle Modelle von einer zentralen Infrastruktur aus pflegt und in die “Edge” pusht.

Rechenzentren bzw. Cloud Computing ist in den meisten Fällen nötig, um Edge Computing zu ermöglichen.
Rechenzentren bzw. Cloud Computing ist in den meisten Fällen nötig, um Edge Computing zu ermöglichen.

Mehr noch: Die lokal erfassten Daten werden in den meisten Fällen von den Edge Devices auch in die Cloud synchronisiert. Dies liegt einerseits an der Notwendigkeit, dass Modelle mit viel Daten besser trainiert werden können, andererseits aber auch den einfachen Vorteil, dass das Unternehmen damit alle Daten zentral analysieren kann. Dies führt zu einem massiven Wettbewerbsvorteil versus dezentraler singulärer Datenverarbeitung.

Dass Edge Devices mit geringer Konnektivität dennoch bilateral mit der Cloud interagieren ist kein Widerspruch. Üblicherweise wird die mangelnde Verbindung mit asynchronen Methoden gelöst. Zum Beispiel wenn Geräte gewartet werden, werden auch die Modelle geupdated und Daten transferier.

Zusammengefasst ist es in den meisten Fällen so, dass Cloud Computing das Edge Computing erst ermöglicht. Vor allem die Aktualität und als Basis für Datenanalyse ist der beiderseitige Datenaustausch ein absolutes Muss.

Vorteile von Edge Computing

Wir haben bereits einige der Vorteile des Edge Computing anskizziert. Hier nochmal als Übersicht, weshalb lokale Verarbeitung Sinn macht und welche Probleme es löst:

  • Übertragungsdauer / Latenz: Viele Operationen benötigen eine sehr niedrige Latenz. Zum Beispiel ein Bilderkennungssensor in einer Fabrik kann nicht 4 Sekunden auf das Ergebnis warten, sondern muss die erfassten Bilder lokal verarbeiten.
  • Kosten: Cloud Computing sind meist zusätzliche Kosten, die zumindest teilweise auf das Edge Device umgelegt werden können. Zudem entfallen viele Kosten für die Übertragung der Daten.
  • Skalierbarkeit: In Stoßzeiten (z.B. bei Schichtwechsel oder Arbeitsbeginn) geraten manche Onlinesysteme schnell an ihre Grenzen. Edge Devices können dies abfedern.
  • Sicherheit: Konstruiert man seine IoT-Infrastruktur so, dass Modelle und Daten nur in gesicherten Netzwerken mit der Cloud synchronisiert werden, steigt die Sicherheit der Daten, da nicht kontinuierlich Daten übertragen werden.

Probleme mit Edge Computing

Selbstverständlich hat Edge Computing auch einige Nachteile bzw. Probleme:

  • Aktualität: Modelle und Algorithmen auf Edge Devices werden Stunden- bzw. Tagelang nicht aktualisiert und können somit schlechtere oder im schlimmsten Fall sogar falsche Ergebnisse liefern.
  • Hohe Datenmengen: Speicher ist auf Edge Devices oft sehr begrenzt. Werden Geräte eingesetzt die sehr hohe Mengen an Daten generieren und diese nicht regelmäßig synchronisiert, kann dies schnell zu Problemen führen.
  • Rechenintensive Anwendungen: Das gleiche gilt für die “Computing Power”, also die Rechenleistung von Edge Computing. Sie ist meist erheblich niedriger als Cloud Computing. Entsprechend muss Hardware und Software aufeinander abgestimmt werden.
  • Komplexere Architektur: Durch die massive Dezentralisierung von Geräten und die Interaktion mit zentralen Strukturen entsteht eine wesentlich komplexere Infrastruktur als “klassische” Rechenzentren.

Beispiele für Edge Computing

Edge Computing mag für manche ein neues Konzept sein, doch hat dessen Einsatz bereits weiten Einzug in unser tägliches Leben gefunden. Im Folgenden einige Beispiele, wie Edge Computing sinnvoll eingesetzt wird.

Manufacturing ist aufgrund ihrer Nähe zu IoT eines der wichtigsten Gebiete für Edge Computing.
Manufacturing ist aufgrund ihrer Nähe zu IoT eines der wichtigsten Gebiete für Edge Computing.

Ausschussreduktion mittels Bilderkennung im Manufacturing

Edge Computing spielt eine sehr große Rolle im Manufacturing. Als ein simples jedoch weit verbreitetes Beispiel gilt die Ausschusserkennung mittels Bilderkennung. Ein Sensor (Kamera) nimmt am Band die produzierte Ware (z.B. Schrauben) auf, analysiert das Bild mittels eines neuronalen Netzes direkt auf dem Edge Devices und gibt die Ausschusswahrscheinlichkeit zurück. Die erfassten Bilddaten werden dann asynchron oder zur Downtime synchronisiert.

Alexa – Spracherkennung auf Stichwort

Sprachassistenten wie Alexa müssen sofort auf die Erkennung ihres Stichworts (“Alexa”) reagieren. Die Latenz, Geräusche erst zur Cloud zu schicken, zu analysieren und zurück zu schicken wäre zu lang für eine gute User Experience. Daher wird Edge Computing mit Cloud Computing kombiniert: Das Stichwort wird lokal erkannt, alle nachfolgenden Wörter werden in die Cloud überführt, analysiert und die Ergebnisse zurück gegeben.

Aussendienstmitarbeiter

Ein weiteres interessantes Beispiel für den Einsatz von künstlicher Intelligenz im Aussendienst ist die Nutzung von Empfehlungsalgorithmen wie Collaborative Filtering. Während der Algorithmus die eine Herausforderung ist, hat ein Aussendienstmitarbeiter oft sehr widrige Bedingungen in denen er agieren muss. Funklöcher, Fabrikhallen und ungeduldige Kunden sind nur ein paar Beispiele, weshalb Edge Computing viele Vorteile bringt. 

Ähnlich wie in den anderen Beispielen gilt allerdings auch hier: Die Synchronisierung zur Cloud oder dem zentralen Rechenzentrum muss mitgedacht werden.

Gartenwerkzeuge 4.0: Der Mähroboter als Edge Device

Mäh- oder Saugroboter gelten als die ersten autonom agierenden Geräte in unseren Haushalten. Und ihre Aufgabe ist nicht trivial: Hindernissen ausweichen, Areale erkennen, saugen oder schneiden, die Batterie aufladen und vieles mehr. All diese Aktionen müssen auch bei keiner oder schlechter Internetverbindung möglich sein. Folglich haben Mähroboter und andere IoT Gartengeräte meistens Edge Computing im Einsatz.

Fazit zum Einsatz von Edge Computing

Edge Computing ist ein sehr relevantes Gebiet, das durch die Zunahme von IoT und verteilten Systemen immer mehr an Bedeutung gewinnen wird. Für Unternehmen ist es wichtig zu verstehen, wann der Einsatz von Edge Computing sinnvoll ist und einen Mehrwert liefert und wann zentrale Strukturen die bessere Wahl sind.