Datenpipelines

Was sind Datenpipelines?

Datenpipelines werden verwendet, um Daten von einer Quelle zu einem Ziel, wie z. B. einem Data Lake oder Data Warehouse, zu verschieben. 

Was sind die Komponenten einer Datenpipeline?

Eine Datenpipeline besteht aus drei Schritten: einer Datenquelle, einem Datenverarbeitungs- oder Datenumwandlungsschritt und einem Datenziel oder Datenspeicherort. Die Datenquelle ist der Ort, von dem die Daten stammen. Zu den üblichen Datenquellen gehören Datenbanken, CRM-Systeme, IoT-Sensoren und mehr. Der Schritt der Datenverarbeitung oder Datenumwandlung umfasst alle Vorgänge, bei denen Daten verändert werden, einschließlich Transport, Übersetzung, Sortierung, Konsolidierung, Deduplizierung, Validierung und Analyse. Der letzte Schritt einer Datenpipeline, die Datenspeicherung, ist der Ort, an dem die umgewandelten Daten gespeichert werden, damit die Benutzer darauf zugreifen können. Typische Datenspeicherorte schließen Data Warehouses, Data Lakes und Datamarts ein.

ETL-Pipelines werden als eine Unterkategorie von Datenpipelines betrachtet. Der Hauptunterschied zwischen einer ETL-Pipeline und einer Datenpipeline besteht darin, dass ETL-Pipelines Daten auf mehr Arten transformieren können als eine Datenpipeline. So kann eine ETL-Pipeline beispielsweise bestimmte metrische Daten miteinander kombinieren, um sie leichter analysieren zu können. ETL-Pipelines können Daten auch nach einem bestimmten Zeitplan übertragen, z. B. wenn der Netzwerkverkehr langsamer ist, statt in Echtzeit. So können Daten in regelmäßigen Abständen statt kontinuierlich übertragen werden.

Zugehörige HPE Lösungen, Produkte oder Services

Was sind die Arten von Datenpipelines?

Echtzeit-Pipelines

Echtzeit-Pipelines werden häufig für finanzielle Einblicke oder in Unternehmen verwendet, die Daten direkt über Streaming-Dienste verarbeiten, z. B. bei der Analyse und für Wetterprognosen. Dieses System verarbeitet Daten sofort über eine Architektur, die Millionen von Ereignissen in großem Umfang verarbeiten kann und außerordentlich zuverlässige Einblicke zur Verfügung stellt.

Open Source-Pipelines

Open Source-Pipelines sind ein budgetfreundliches System, das von kleineren Unternehmen und der breiten Öffentlichkeit genutzt wird, um Daten zu bewegen, zu verarbeiten und zu speichern. Die Tools, die für diese Art von Pipelines verwendet werden, sind erschwinglicher als diejenigen, die Echtzeit- oder cloudbasierte Datenpipelinesysteme ermöglichen. Diese Systeme sind öffentlich zugänglich und erfordern in allen Anwendungsfällen eine bewusste Anpassung.

Cloud-Pipelines

Cloud-Pipelines dienen dazu, cloudbasierte Daten zu nutzen, umzuwandeln und zu analysieren. Da keine Datenspeicher-Infrastruktur vor Ort erforderlich ist, können Unternehmen Daten in einer cloudbasierten Struktur sowohl sammeln als auch analysieren. Cloud-native Pipelines schließen aufgrund der Art des Dienstes häufig auch umfangreiche Sicherheitsangebote ein.

Stapelverarbeitungs-Pipelines

Stapelverarbeitungs-Pipelines gehören zu den beliebtesten Datenspeichersystemen für Datenpipelines. Unternehmen verwenden Stapelverarbeitungs-Pipeline-Systeme häufig, um große Datenmengen fortlaufend zu verschieben und zu speichern. Dabei werden die zu speichernden und zu analysierenden Daten aufgrund der schieren Menge langsamer als bei Echtzeit-Systemen übertragen und verschoben.

Streaming-Pipelines

Streaming-Pipelines sind neben den Stapelverarbeitungs-Pipelines die beiden gängigsten Formen von Daten-Pipelines. Mit Streaming-Pipelines können Benutzer sowohl strukturierte als auch unstrukturierte Daten aus einer Vielzahl verschiedener Datenquellen einlesen.

Was ist eine Datenpipeline-Architektur?

Die Datenpipeline-Architektur bezieht sich auf die Systeme, die die Datenquellen, Datenverarbeitungssysteme, analytischen Tools und Anwendungen miteinander verbinden.

Die Datenpipeline-Architektur ermöglicht die Erfassung aller relevanten Daten, sodass Data Scientists aus den Daten Erkenntnisse ziehen können, um Verhaltensweisen gezielt zu steuern, die Effizienz der Customer Journey zu fördern und die Erfahrungen der Benutzer zu verbessern. Datenpipelines nehmen unformatierte Daten auf, leiten sie an eine geeignete Website weiter und wandeln sie in verwertbare Einblicke um. Die Architektur ist dynamisch geschichtet und beginnt mit der Erfassung und endet mit der kontinuierlichen Überwachung.

Grundsätzlich handelt es sich bei unformatierten Daten um eine Vielzahl von Datenpunkten – viel zu viele, um daraus Einblicke zu gewinnen. Die Architektur von Datenpipelines umfasst das System zur Erfassung, Strukturierung und Verschiebung von Daten, um daraus Einblicke zu ziehen und sie für ein tieferes Verständnis und eine bessere Nutzung zu analysieren. Dies geschieht häufig über Automatisierung, Software und Datenspeicherlösungen.

Die Datenspeicherorte werden je nach Format der erfassten Daten festgelegt. Das Senden von Daten an den richtigen Speicherort ist ein kritischer Schritt in der Datenpipeline-Architektur. Dabei gibt es die Möglichkeit, verarbeitete Daten in einem strukturierten Datenspeichersystem, wie einem Data Warehouse, und eher lose strukturierte Daten in einem Data Lake zu speichern. Data Analysts können Dateneinblicke aus lose strukturierten Daten in Data Lakes gewinnen oder verwaltete Daten an einem zentralen Datenspeicherort analysieren. Ohne die richtige Platzierung in einer Speicherumgebung gibt es keine praktische Übersicht innerhalb der Architektur, was zukünftige Anwendungen weiter einschränkt. 

HPE und Datenpipelines

HPE Ezmeral ist eine hybride Analyse- und Data Science-Plattform, die dafür entwickelt wurde, um Data-First-Modernisierungen voranzutreiben und Unternehmen in die Lage zu versetzen, den Wert ihrer Daten zu erschließen, wo auch immer sie sich befinden. HPE Ezmeral ermöglicht die HPE GreenLake Analytics Services, um Kunden bei der Vereinheitlichung, Modernisierung und Analyse all ihrer Daten vom Edge bis zur Cloud zu unterstützen.

HPE Ezmeral hilft dabei, den Wert von Daten zu erschließen und Innovationen schneller voranzutreiben – mit einer Auswahl, Effizienz und Flexibilität, die bei Nischen- und cloudbasierten Lösungen nicht gegeben ist. Dies geschieht durch:

Bereitstellung einer einheitlichen Softwareplattform, die zu 100 % auf Open Source-Quellen basiert und sowohl für Cloud-native als auch für nicht Cloud-native (Legacy-)Anwendungen entwickelt wurde, die in beliebigen Infrastrukturen entweder lokal oder in Hybrid und Multi-Cloud-Umgebungen ausgeführt werden.

Vereinheitlichung von Daten und Modernisierung von Anwendungen mit der ersten integrierten Data Fabric der Branche, die für hochleistungsfähige Analysen optimiert ist. Durch die Kombination von Dateien, Objekten, Ereignisströmen und NoSQL-Datenbanken in einer einzigen logischen Infrastruktur und einem einzigen Dateisystem, um einen globalen Zugang zu synchronisierten Daten zur Verfügung zu stellen, lassen sich Einblicke schneller gewinnen.

Adressierung der Herausforderungen bei der Operationalisierung von ML-Modellen im Unternehmensmaßstab mit einer Lösung, die DevOps-ähnliche Geschwindigkeit und Agilität bietet, kombiniert mit einer Cloud-ähnlichen Erfahrung, die Ihre Workloads beschleunigt.

Bereitstellung einer einheitlichen Erfahrung für alle Teams mit einer einzigen Plattform, die eine breite Palette von Analyse- und ML-Tools nutzt. Die integrierte Automatisierung und die Cloud-native Erfahrung vereinfachen die Verbindung von Anwendern und ihren Tools mit den richtigen Daten, Compute-Engines und Datenspeichern, sodass sich die Teams auf die Erschließung des Datenwerts konzentrieren können.

Steigerung der Freiheit und Flexibilität mit integrierten Open Source-Tools und Frameworks in einem einheitlichen Hybrid Data Lakehouse. Ein integrierter App Store oder der HPE Ezmeral Marketplace ermöglicht die schnelle Erstellung optimierter, angepasster Engines und Umgebungen basierend auf vollständigen, validierten Lösungen von vertrauenswürdigen ISV-Partnern.