Azure IoT Edge vorgestellt - was ist das eigentlich?

Die erste richtig große Ankündigung der BUILD 2017 ist Azure IoT Edge. Damit soll es möglich werden, die volle Leistungsfähigkeit des Internet der Dinge zu entfalten, in dem sowohl Daten als auch Rechenleistung intelligent verteilt werden. Edge Computing, teilweise auch als Fog Computing bezeichnet, macht IoT-Geräte weniger abhängig von zentralen Cloudservern, was diese gleichzeitig entlastet.

Was ist Edge Computing?
Vor einigen Jahren noch schien die Cloud die perfekte Lösung für alle Ressourcen-Probleme zu sein. Durch die Anbindung an die Cloud stand selbst kleinsten Geräten im Grunde unbegrenzte Rechenkapazität zur Verfügung. Die Daten wurden vor Ort gesammelt, an den Server weitergeleitet, der führte die Verarbeitung durch und lieferte das Ergebnis zurück.

Mit dem Anbruch des IoT-Zeitalters wandeln sich die Anforderungen. Milliarden von Geräten werden künftig intelligent und vernetzt sein, vom Kühlschrank über Ampelanlagen, Rolltreppen bis hin zu Autos und Flugzeugen. Die anfallenden Datenmengen sind gigantisch und sprengen jede Vorstellungskraft. Diese Daten zur Verarbeitung in die Cloud zu schaufeln, wird auch mit der besten Anbindung irgendwann zum Problem.

Die Lösung heißt Edge Computing. Rechenvorgänge werden „an den Rand“ der Cloud bzw. des Netzwerks verlagert. Soll heißen: Die Geräte übernehmen die Verarbeitung der Daten teilweise selbst und treffen eigene Entscheidungen. Auch das wäre vor ein paar Jahren noch undenkbar gewesen, weil die lokale Rechenleistung auf kleinstem Raum einfach nicht ausgereicht hat. Inzwischen ist das aber kein Problem mehr.

Mit Edge Computing werden die IoT-Geräte und -Gateways also intelligenter. Sie entscheiden selbst, welche Daten lokal verarbeitet und welche an den Cloud-Server geschickt werden. Das reduziert die Datenmengen, die durchs Netz geschickt werden, außerdem erhöht sich die Performance, weil die Netzwerk-Latenzen entfallen. Überall dort, wo Daten möglichst in Echtzeit erfasst und verarbeitet werden müssen, greift der Ansatz des Edge Computing. Gleichzeitig erhöht sich auch die Sicherheit – Daten, die gar nicht erst übertragen werden, kann auch niemand abfangen oder manipulieren.

Azure IoT Edge soll die Vorteile der zentralen und lokalen Datenverarbeitung vereinen und gleichzeitig die Nachteile gegeneinander aufheben. Überall, wo es Sinn macht, wird die nötige Intelligenz lokal zur Verfügung gestellt, gleichzeitig steht Azure mit seinen unerschöpflichen Ressourcen bereit, um die darüber hinaus gehenden Aufgaben zu bewältigen.

Oder um das auf ein ganz kleines Szenario runter zu brechen: Das Problem, dass man im Smart Home das Licht nicht mehr einschalten kann, wenn die Internetverbindung unterbrochen ist, gehört damit der Vergangenheit an.

Über den Autor
Martin Geuß
  • Martin Geuß auf Facebook
  • Martin Geuß auf Twitter
Ich bin Martin Geuß, und wie unschwer zu erkennen ist, fühle ich mich in der Windows-Welt zu Hause. Seit mehr als zwölf Jahren lasse ich die Welt an dem teilhaben, was mir zu Windows und anderen Microsoft-Produkten durch den Kopf geht, und manchmal ist das sogar interessant. Das wichtigste Motto meiner Arbeit lautet: Von mir - für Euch!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.



Kommentare
  1. Ich muss immer an Terminator denken wenn ich etwas von selbst denkenden Maschinen lesen! ;)
    Ich muss immer an Terminator denken wenn ich etwas von selbst denkenden Maschinen lesen! ;)

    Ich auch...und an IRobot!
    Die Idee ansich ist alt #ShadowrunMatrix
    Ich muss mich schon zusammenreißen, nicht los zu sabbern, wenn ich mir vorstelle, wie geil das sein muss (Programmierersicht)
    naja, es sind ja nicht ganz denkende Maschinen. Es ist eher ein großes ganzes denkendes Netz an Maschinen ... das ist eigentlich viel schlimmer ^^'
    Diese, bzw. eine ähnliche Idee wurde am Cern entwickelt. Verteilte Rechenleistung.
    Wenn das nicht die Idee des Herrn Nadella war. Mr. Cloud.
    Sehr cool!!!
    Edge Computing gibt es auch im wissenschaftlichen Bereich. Boinc nennt es sich. Hier kann jeder mit seinem Rechner an bestimmten Projekten teilnehmen und Rechenleistung bereitstellen. Zum Beispiel nach einer Feuerung des LHC, nach der riesige Datenmengen anfallen, die bearbeitet werden müssen. Ich von seit Jahren dabei.
    Oder um das auf ein ganz kleines Szenario runter zu brechen: Das Problem, dass man im Smart Home das Licht nicht mehr einschalten kann, wenn die Internetverbindung unterbrochen ist, gehört damit der Vergangenheit an.

    Puh! .... ;-)
    Früher gab es Großrechner mit Terminals, dann kamen die PCs mit Fat-Clients und Datenbank. Danach Browser mit Webanwendungen / Cloudanwendungen. Jetzt verlagert man die Berechung auf die IoT-Clients mit Abnindung an die Cloud.
    Sieht nach einem Muster aus.
    1. Zentrale Datenverarbeitung
    2. Dezentrale Datenverarbeitung
    3. Zentrale Datenverarbeitung
    4. Dezentrale Datenverarbeitung
    Mal sehen was danach kommt :-)
    @Spacerat: Den Gedanken hatte ich gestern auch. Im Grunde sind die IT-Strategien wie die Hosenmode. Mal länger, mal kürzer, mal enger, mal weiter - aber im Prinzip war alles schon mal da :).
Nach oben