Wenn Siri oder Alexa den Bruchteil einer Sekunde zu spät antworten, strapaziert dies höchstens unsere Geduld. Wenn die vernetzte Präzisionsmaschine in der Fertigung wegen verzögerter Feedbacks falsch reagiert, kann dies jedoch fatale Folgen haben. Echtzeit-Datenverarbeitungen in Industrie, Mobilität oder Medizin erfordern eine immer schnellere Verarbeitung grosser Datenmengen. Insbesondere zeitkritische Systeme in Zusammenhang mit dem Internet der Dinge (IoT) und Machine Learning sind darauf angewiesen, dass die Datenübertragungen zu den Rechenzentren und zurück innerhalb kürzester Zeit geschehen, da sonst problematische Latenzen entstehen. Da der Flaschenhals in die Cloud mit der Zunahme vernetzter Devices und grösserer Datenmengen künftig noch enger wird, steigt die Notwendigkeit für Edge Computing stark an. Diverse internationale Studien beurteilen Edge Computing deshalb als eine Schlüsseltechnologie der unmittelbaren Zukunft.
«Edge is the new Cloud» wird allenthalben sogar behauptet. Gartner erwartet, dass künftig 75 Prozent der Daten «on the Edge» verarbeitet werden. Demzufolge soll der Edge-Computing-Markt jährlich um bis zu 50 Prozent wachsen. «Edge ordnet die Landschaft des Enterprise Computing neu», heisst es etwa in der Edge-Studie von Reply und Teknowlogy vom Februar 2021. Entsprechend wagt Grand View Research die Prognose, dass Edge Computing 2027 ein Marktvolumen von 43 Milliarden Dollar erreichen wird. Für das Fraunhofer-Institut für Integrierte Schaltungen IIS wiederum steht fest: «Die Zukunft der Cloud liegt in der Edge.»
Künstliche Intelligenz ohne Latenz
Ein grosser Treiber dieser Entwicklung dürfte die steigende Nutzung von KI-Anwendungen mit Bedarf an Echtzeit-Datenverarbeitung sein. Zwar bleibt für herkömmliche Anwendungen mit Machine Learning und KI die Cloud der bevorzugte Ort zur Datenverarbeitung – etwa für die tiefe Datenanalyse oder zum Training neuer Modelle. Doch für autonome Entscheidungen in Echtzeit werden die Übertragungen in die Cloud zu träge und die Datenmengen zu gross. Mit der Datenverarbeitung vor Ort ist Edge Computing in der Lage, komplexe KI-Anwendungen enorm zu beschleunigen: Zeitkritische Entscheidungen werden am Ort des Geschehens gefällt. So wird zwar die Latenz nicht ganz eliminiert, doch aber deutlich reduziert.
Vom Connected Car bis zum Türöffner
Gemäss mehreren Studien und Prognosen hat Edge Computing das Potenzial, die Lösung für verschiedenste technologische Herausforderungen von morgen zu sein. Die kurze Reaktionszeit kann bei zeitkritischen Anwendungen wie in halbautonomen oder selbstfahrenden Fahrzeugen lebenswichtig sein. So lässt etwa die Entscheidung, ob eine Vollbremsung eingeleitet oder das Hindernis umfahren werden soll, kein Aufschieben zu. Die Entscheidungen für Notfallmanöver sollten deshalb nicht in einem fernen Rechenzentrum gefällt werden, sondern direkt im Fahrzeug. Ähnliche Szenarien betreffen etwa die Robotik, medizinische Instrumente oder bilderkennende Drohnen. Edge kann künftig in komplexen Anwendungen zur Naturüberwachung oder in der Landwirtschaft zum Zug kommen, wo der Zugang zu leistungsstarken Netzwerken zwar fehlt, aber dennoch Echtzeitdaten benötigt werden. Vor allem in der Industrie, wo Edge Computing bereits heute zum Einsatz kommt, wird seine Bedeutung zunehmen. Während einfache Edge Gateways heute an einem Industriestandort lokal die nutzbaren Daten nach bestimmten Mustern noch eher rudimentär herausfiltern, werden künftig auch rechenintensive Datenverarbeitungen in der On-Premises-Infrastruktur vorgenommen. Die Vernetzung der Edge-Hubs und -Devices kann zudem mittels 5G beschleunigt werden. Der neue Mobilfunkstandard wird deshalb beim Ausbau von Edge-Systemen eine wichtige Rolle spielen.
Auch in ganz alltäglichen Anwendungen bestehen Echtzeitanforderungen, die auf diese Weise gelöst werden können. Man denke etwa an ein Türöffnungssystem mit Gesichtserkennung: Im Idealfall funktioniert dieses so schnell, dass man seinen Schritt nicht verlangsamen muss, um den Eingang zu passieren. Entsteht jedoch eine Wartezeit, bis das System das Gesicht der Mitarbeitenden erkennt, ist das System für die täglich eintretenden Personen alles andere als komfortabel und zeitsparend. Statt also sämtliche Daten aus dem Smart Building mit dem Rechenzentrum auszutauschen, genügt es, diese vor Ort zu verarbeiten. Ein weiterer Vorteil solcher Anwendungen ist die Tatsache, dass personenbezogene Daten mit Edge-Verarbeitung nicht in die Public Cloud gelangen.
Trotz aller Vorteile von Edge und mitunter gemachten Verheissungen: Die Edge-Technologie zieht auch Nachteile mit sich. So gelten die Einstiegskosten und der Wartungsaufwand als relativ hoch – etwa im Vergleich zum Cloud Computing. Nicht zeitkritische (grössere) Datenmengen, die an einem Industriestandort oder in einer anderen Edge-Anwendung anfallen, werden deshalb zur tieferen Analyse weiterhin ins Rechenzentrum gesendet. Edge wird nie für sich alleine funktionieren, sondern wird immer im Zusammenspiel mit der Cloud stehen. Ohne Cloud kein Edge. Hyperscaler wie Microsoft Azure oder AWS werden diesem Umstand gerecht, indem sie bereits komplette PaaS-Lösungen für Edge-IoT-Anwendungen anbieten. Mit diesen lassen sich die Vorgänge in der Edge zentral steuern und kalibrieren.
Fog Computing: zwischen Edge und Cloud
Wachsende Anforderungen an die Datenverarbeitung am Rande der Netzwerke erfordern leistungsfähigere Edge-Systeme und -Devices. Wenn in Zukunft die Edge-Architekturen für komplexe Anwendungsfälle nicht mehr ausreichen, geht man davon aus, dass das sogenannte Fog Computing zum Einsatz kommen wird. Bei Fog Computing (von engl. «Nebel») sorgen «Mini-Rechenzentren» zwischen Edge und Cloud für schnelle, aber dennoch umfangreiche Datenverarbeitungen nahe der Datenquelle. Je mehr Entscheidungen und Analysen in den sogenannten Fog Nodes vorgenommen werden können, desto mehr reduzieren sich die zu übermittelnden Datenmengen ans Rechenzentrum beziehungsweise in die Cloud. Vom Prinzip her ist Fog Computing also lediglich eine Verlagerung der Rechenleistung vom Rande des Netzwerks in eine Zwischenstation. Verschiedentlich werden solche Szenarien auch als leistungsfähigere Edge-Architekturen beschrieben, in welche grössere Speicher- und Rechenleistungen möglich sind und in welche die Businesslogik implementiert werden kann.
Sicherheit am Rand des Netzwerks
Mit der steigenden Komplexität im Edge Computing ändern sich auch die Sicherheitsmassnahmen. Einerseits bieten die vernetzten, leistungsfähigen Systeme vor Ort mehr Angriffsfläche, sodass Edge Devices und wichtige Knotenpunkte verletzliche Angriffsziele von Hackern werden könnten. Zudem können Systeme, die sich ausserhalb von Industriestandorten oder in abgelegenen Gebieten befinden, manuellen Manipulationen ausgesetzt sein.
Edge wird künftig aber auch vermehrt Sicherheitsvorteile bieten: Sensible Daten sind besser geschützt, wenn sie nicht in die Public Cloud transferiert werden müssen und stattdessen in den On-Premises-Infrastrukturen verarbeitet werden. Auch die Einhaltung gewisser regulatorischer Vorgaben und Datenschutzbestimmungen ist bei lokaler Speicherung besser zu handhaben. Zudem ist davon auszugehen, dass die Systeme bei reiner Offline-Datenverarbeitung robuster gegen Netzwerkausfälle sind. Um die Risiken zu vermindern, werden in Layers eingeteilte Edge-Systeme an Bedeutung gewinnen – insbesondere für Anwendungen mit sensiblen Daten. Dabei erhalten ausschliesslich die oberen Schichten direkte Verbindung zum zentralen Rechenzentrum. Die unteren Schichten bleiben komplett offline und werden durch Firewalls von den oberen Schichten getrennt. Eine andere Methode zur Risikoverminderung besteht in der temporären Internet-Konnektivität: Die Edge Devices sind bloss in kurzen Zeitfenstern mit der Cloud verbunden – etwa, um Daten für die tiefere Analyse zu senden oder für Updates.
Edge ist nicht die neue Cloud. Vielmehr ist Edge die ideale Ergänzung zur Cloud. Deshalb wird diese Technologie, die heute bereits in einigen Bereichen unverzichtbar geworden ist, in Zukunft noch eine viel wichtigere Rolle spielen. Zwar wird Edge Computing immer am Rande des Netzwerks stattfinden, doch wird es alles andere als eine Randerscheinung sein.
Die Autoren
Oliver Christen ist Senior Software Engineer bei BBV. Er ist überzeugt, dass in einem multifunktionalen agilen Team die besten Lösungen entstehen. Er ist mit den neuesten Microsoft-Technologien vertraut und hat langjährige Erfahrungen in diversen Branchen gesammelt. Seit einiger Zeit ist er im IoT-Umfeld tätig und beschäftigt sich insbesondere mit Edge Computing.
Michel Estermann ist Senior Software Engineer bei BBV. Er ist überzeugt, dass ein gemeinsames Verständnis der Vision, Ziele und Anforderungen essenziell für das Gelingen eines Projektes ist – ganz nach dem «Manifest für Agile Software-Entwicklung». Als Entwickler möchte er auch seinen Beitrag dazu leisten.