Verteiltes Computing
Was ist verteiltes Computing?
Verteiltes Computing ist, vereinfacht ausgedrückt, die Verarbeitung von Computing-Aufgaben über ein Netzwerk von Computern oder Servern und nicht über einen einzelnen Computer und Prozessor (ein so genanntes monolithisches System).
Wie funktioniert das verteilte Computing?
Beim verteilten Computing werden Workloads über das Internet oder ein cloudbasiertes Netzwerk auf eine nahezu unbegrenzte Anzahl von Computing-Ressourcen verteilt. Jeder Verarbeitungsknoten bewältigt seine eigene Workload, die gesamte Computing-Last wird jedoch dynamisch auf alle Nodes verteilt. Nodes können in Echtzeit online geschaltet werden, um prozessintensive Workloads zu bewältigen, und jeder Ausfallpunkt bleibt vom Rest des verteilten Computing-Systems isoliert.
Verteiltes Computing vs. Cloud Computing
Der entscheidende Unterschied zwischen verteiltem Computing und Cloud Computing ist der Ort, an dem sich die Computing-Ressourcen befinden. Beim verteilten Computing bleiben die Ressourcen lokal, die Verbindung wird jedoch über das Netzwerk hergestellt. Im Falle von Cloud Computing werden alle Ressourcen (Hardware, Software, Infrastruktur) über die Cloud/das Netzwerk zur Verfügung gestellt.
Was ist verteiltes Tracing?
Verteiltes Tracing wird mitunter auch als verteiltes Request Tracing bezeichnet und ist eine Methode zur Nachverfolgung der verschiedenen und separaten Prozesse im verteilten Computing. Dies ist wichtig, wenn es darum geht, Ausfallpunkte wie Bugs, Engpässe oder Drosselungen in einem größeren Szenario des verteilten Computing zu identifizieren. Wie der Name schon sagt, handelt es sich um eine Methode zur Nachverfolgung von Schritten, um einen besseren Einblick in die Details eines größeren, komplexen Systems zu erhalten.
Horizontale Skalierung vs. vertikale Skalierung
Vertikale Skalierung ist der Prozess der Erhöhung der Verarbeitungsleistung ohne Vergrößerung des Platzbedarfs, d. h. einem vorhandenen Computer oder Server wird Arbeitsspeicher hinzugefügt, die CPU-Geschwindigkeit wird steigert oder zusätzlicher Speicher wird hinzuzugefügt. Bei der horizontalen Skalierung wird die Rechenleistung gesteigert, indem der Platzbedarf erhöht wird, z. B. durch das Hinzufügen zusätzlicher Server oder übergeordneter/Arbeitsrechner über ein Netzwerk.
Welche Arten von verteiltem Computing gibt es?
Beim verteilten Computing wird eine Vielzahl komplexer Architekturen verwendet, die auf den Ressourcen und den erforderlichen Aufgaben basieren. Da verteiltes Computing skalierbar ist, kann es in großen Netzwerken nuancierte Unterschiede geben, aber viele werden in eine der nachstehenden grundlegenden Kategorien fallen:
Client-Server
Ein Client-Server-Netzwerk besteht aus einem zentralen Server, der die Verarbeitungs- und Datenspeicheraufgaben übernimmt, und Clients, die als Terminals fungieren, die Nachrichten an den Server senden und von ihm erhalten. Das häufigste Beispiel für ein Client-Server-Netzwerk sind E-Mails.
Dreistufig (3-Tier)
Bei dieser Art des verteilten Computing-Netzwerks wird der erste Tier als Präsentationsschicht bezeichnet und ist die Schnittstelle, über die ein Endbenutzer Nachrichten sendet und erhält. Der mittlere Bereich wird als Anwendungs-Tier, Mittel-Tier oder Logik-Tier bezeichnet und steuert die Funktionalität der Anwendung. Der letzte Tier sind die Datenbankserver oder File Shares mit den für die Erfüllung der Aufgaben benötigten Daten. Das häufigste Beispiel für ein dreistufiges Tier-System ist eine E-Commerce-Website.
Beachten Sie, dass es gewisse Überschneidungen zwischen „mehrstufigen“ oder „n-stufigen“ verteilten Tier-Systemen und „dreistufigen“ Systemen gibt, da mehrstufige und n-stufige Tier-Systeme Variationen der dreischichtigen Architektur sind. Der Hauptunterschied besteht darin, dass sich jede der Ebenen in einem separaten physischen Raum befindet und für spezielle, lokalisierte Aufgaben innerhalb der größeren Computing-Architektur verantwortlich ist.
Peer-to-Peer
In diesem Modell der Verteilungsarchitektur sind die Peers gleich privilegiert und gleich leistungsfähig, um Workloads zu bewältigen. In dieser Umgebung werden die Peers, Benutzer oder Maschinen Nodes genannt und benötigen keine zentrale Koordination zwischen den Parteien. Der berühmteste Einsatz von Peer-to-Peer-Netzwerken war die Filesharing-Anwendung Napster, die 1999 als Mittel zum Austausch von Musik zwischen internetfähigen Hörern auf den Markt kam.
Was sind die Vorteil des verteilten Computing?
Verteiltes Computing hat eine Vielzahl von Annehmlichkeiten, die erklären, warum so gut wie jeder moderne Computing-Prozess, der über einfache Berechnungen hinausgeht, eine verteilte Computing-Architektur verwendet.
Skalierbarkeit
Für den Anfang kann das Netzwerk nicht nur so gestaltet werden, dass es den Anforderungen gerecht wird, sondern es kann auch dynamisch in Echtzeit mit zusätzlichen Nodes erweitert werden, um den Bedarf zu erfüllen, die dann wieder in den inaktiven Zustand versetzt werden, wenn der Bedarf zurückgeht.
Zuverlässigkeit
Es liegt in der Natur eines verteilten Systems, dass natürliche Redundanzen in der Architektur enthalten sind. Da Nodes einspringen können, um Computing-Aufgaben zu unterstützen, können dieselben Nodes zu einem Prozess ohne Ausfallzeiten beitragen, indem sie für einen ausgefallenen oder schlecht funktionierenden Node einspringen. In einem E-Commerce-Szenario könnte ein intakter Server einspringen und den Verkauf abschließen, wenn ein Warenkorb-Server mitten in der Transaktion ausfällt.
Geschwindigkeit
Der wichtigste Vorteil verteilter Computing-Systeme ist die Geschwindigkeit, mit der komplexe Aufgaben bearbeitet werden. Wo sonst ein Server bei starkem Datenverkehr ins Stocken geraten könnte, kann ein verteiltes Computing-System in Echtzeit erweitert werden, um die gleichen Aufgaben mit mehr Rechenleistung zu bewältigen. Im Wesentlichen kann das verteilte System so konzipiert werden, dass Workloads standardisiert werden, indem die Anforderungen dynamisch mit den Ressourcen abgeglichen werden.
HPE und verteiltes Computing
HPE verfügt über jahrzehntelange Erfahrung in der Arbeit mit globalen Unternehmen, um moderne Strategien und Lösungen für das Data Management zu bauen. Das HPE Portfolio umfasst intelligente und Workload-optimierte End-to-End-Lösungen vor Ort und in der Cloud, die Ihnen helfen, Ihre Daten sinnvoll zu nutzen und schneller betrieblichen Mehrwert zu erzielen.
Multi-Generationen-IT-Umgebungen sind komplex, nicht nach Kosten oder Geschwindigkeit optimiert, erstrecken sich über mehrere Standorte und erfordern häufig eine Überbereitstellung. Die Umstellung auf eine Cloud-Plattform mit einer innovativen Computing-Grundlage kann die Daten überall vereinheitlichen und modernisieren, vom Edge bis zur Cloud. Mit einer Cloud-Betriebserfahrung erhalten Sie die erforderliche Geschwindigkeit für die heutige digital orientierte Welt, können auf datenorientierte Modernisierungsinitiativen reagieren und haben volle Transparenz und Kontrolle über Kosten, Sicherheit und Governance.
Konfiguration, Installation und Betrieb von Computing-Ressourcen sind arbeits- und kostenintensiv. Der Cloud-Service-Ansatz von HPE GreenLake bietet eine durchgängige Cloud-ähnliche Einfachheit und Effizienz. Workload-optimierte Module werden direkt in Ihrem Rechenzentrum oder am Edge bereitgestellt und von HPE für Sie installiert. Ihre IT-Mitarbeiter werden dadurch entlastet und können sich auf wichtigere Aufgaben konzentrieren, während zuverlässige HPE Experten proaktiven und reaktiven Support bieten.