FOG- und EDGE Computing bezeichnen zunächst einmal zwei unterschiedliche Technologien, welche die Rechenleistung aus dem Rechenzentrum „herausholen“, diese dezentralisieren und latenzfreier machen. Hierbei werden unterschiedliche Ansätze verfolgt. Latenz bedeutet hierbei die Dauer zwischen der Eingabe von Daten, sei es von Mensch oder Maschine und der Lieferung des Ergebnisses dieser Eingabe.
FOG Computing setzt dabei auf viele verschiedene kleine lokale „Rechenzentren“, welche von den Nutzern angesteuert werden, die sich in der Nähe befinden. Dies kann kabelgebunden, aber auch kabellos geschehen. Der Vorteil bei diesen lokalen sogenannten „FOG-Nodes“ besteht darin, dass Informationen und Daten nicht erst über lange Strecken transportiert werden müssen, sondern, dass diese Daten in den FOG-Nodes verarbeitet werden können und in kürzester Zeit an den Nutzer zurückgeschickt werden können. Dies bedeutet erheblich kürzere Latenzzeiten, was uns zu Echtzeitverbindungen einen großen Schritt näherbringen wird. Ein weiterer Vorteil ist, dass Daten, die zu aufwendig zu berechnen wären, als dass man sie in dieser FOG-Node allein verarbeiten kann, man die Daten in der FOG-Node bereits aufbereitet. So kann die Rechenleistung der Cloud deutlich geringer ausfallen und somit werden die Latenzzeiten ebenfalls verringert.
EDGE Computing – Back to Basic
Das EDGE Computing verfolgt ein ähnliches Prinzip, allerdings besitzt hierbei jedes netzwerktaugliche Device eine eigene Hardwarekomponente, welche einen Großteil der Rechenleistung bereits übernimmt. So können einfache Berechnungen vor Ort durchgeführt werden und bei komplexen Vorgängen kann die Hardware die Daten aufbereiten und in Kombination mit den FOG-Nodes vorberechnete Daten an die Cloud weitergeben. Vorteil ist hier, neben den ebenfalls deutlich kürzeren Latenzzeiten, dass man auch bei einem Netzausfall Berechnungen weiterhin vornehmen kann.
Die Vorteile beider Technologien sind ganz klar die deutlich latenzärmere Übermittlung von Daten, der damit einhergehenden Beschleunigung der Datenverarbeitung bis hin zur Echtzeitfähigkeit und der Unabhängigkeit bei Cloud-Ausfall oder Überlastung.
Leider gibt es bei beiden Technologien auch Nachteile, da die Kosten für Hardware und Wartung steigen und Sicherheitsmaßnahmen nicht nur an einem Ort erfolgen müssen, sondern auch dezentralisiert vor Ort eingerichtet werden.
Die meisten Experten sind sich allerdings einig, dass die dezentrale Datenverarbeitung, wie auch immer sie aussehen wird, die Zukunft bestimmen wird, wie Prozesse im Internet gesteuert und verarbeitet werden. Es wird auch allerdings von einer Koexistenz aller drei Computing-Formen ausgegangen, da eine Kombination aller Vorteile zu dem besten Ergebnis für bevorstehende Aufgaben führen wird.