ML Ops
Was ist ML Ops?

Als eine Einheit kann der Container problemlos verschoben und auf jedem Betriebssystem in jedem Kontext ausgeführt werden. Machine Learning Operations (ML Ops) ist ein standardisierter Satz bewährter Methoden und Tools, die entwickelt wurden, um das Entwerfen, Erstellen, Bereitstellen und Warten von Modellen für maschinelles Lernen in der Produktion zu vereinfachen. Durch den Einsatz von Automatisierung ermöglicht ML Ops es Data Scientists, den Release-Zyklus für Software zu vereinheitlichen, das Testen von ML-Artefakten zu automatisieren und agile Prinzipien diszipliniert auf ML-Projekte anzuwenden, was zu qualitativ hochwertigeren Modellen beiträgt.

Inhaltsverzeichnis

    Wofür wird ML Ops verwendet?

    Data Scientists, Softwareentwickler und IT-Betriebsexperten verwenden ML Ops, um Entwurf, Erstellung, Bereitstellung und Management von KI- und ML-Modellen zu standardisieren und zu automatisieren. Ein strikter ML Ops-Ansatz ermöglicht den Teilnehmern eine effektive Zusammenarbeit, die Implementierung kontinuierlicher Integration und Bereitstellung (CI/CD) und die Beschleunigung des Entwicklungs- und Produktionstempos.

    Gründe für ML Ops

    Maschinelles Lernen und künstliche Intelligenz lassen sich bekanntermaßen nur schwer in die Produktion integrieren. Data Science wird häufig durch Datensilos, widersprüchliche Formate, Datenschutzprobleme, Sicherheitsanforderungen und Ressourcenmangel erschwert. ML Ops kann dabei helfen, das Entwickeln, Testen und die Releases für Data Science-Workflows zu optimieren und so Geschwindigkeit und Agilität in anspruchsvolle KI- und ML-Projekte zu bringen.

    Funktionen und Vorteile von ML Ops

    Der Umfang von ML Ops kann von explorativer Datenanalyse (EDA) über Datenvorbereitung und -entwicklung bis hin zu Modelltraining und -bereitstellung variieren. Bei richtiger Nutzung werden ML-Workflows schneller, effizienter und wiederholbar, zudem verkürzt sich die Zeit bis zur Produktion.

    ML Ops ermöglicht es Data Science-Teams, qualitativ hochwertigere Modelle schneller zu entwickeln und bereitzustellen. Es verbessert das Management und die Skalierbarkeit erheblich: Mehrere Modelle können parallel gesteuert und überwacht werden, was eine kontinuierliche Integration, Bereitstellung und Implementierung ermöglicht. Und es fördert die Zusammenarbeit zwischen Data Scientists, DevOps und IT-Betrieb und reduziert so Konflikte zwischen Teams mit gelegentlich widersprüchlichen Prioritäten.

    ML Ops minimiert außerdem Entwicklungsrisiken, indem es Sicherheits- und Regulierungsfragen durch strikte Compliance und Transparenz angeht. Alle Änderungen an Modellen und Daten werden sorgfältig verfolgt, um präzise Überprüfungen und reproduzierbare Ergebnisse zu gewährleisten. 

    Best Practices für ML Ops

    Die Prinzipien von ML Ops gelten für jede Phase eines ML-Lebenszyklus.

    Iteration

    Jede Veränderung verändert alles (CACE, Changing anything changes everything). Jede iterative Änderung an einem Modell oder Datensatz muss aufgezeichnet und getestet werden. 

    Wiederholbarkeit

    Jedes Modell, jede Tabelle und jeder Test muss unter denselben Bedingungen und Daten perfekt reproduzierbar sein.

    Transparenz

    Funktionen und Änderungen müssen transparent sein und von allen beteiligten Datenteams gemeinsam genutzt werden.

    Konsistenz

    Open Source-Formate und -Bibliotheken tragen dazu bei, die Konsistenz zwischen Funktionen und Daten sicherzustellen.

    Überprüfbarkeit

    Um eine präzise und genaue Governance zu gewährleisten, müssen die Versionierung und Herkunft des Modells während des gesamten ML-Lebenszyklus sorgfältig verfolgt und gepflegt werden.

    HPE und ML Ops

    ML Ops spielt in der Zukunft des Enterprise Computing eine bedeutende Rolle, und HPE möchte das volle Potenzial des maschinellen Lernens ausschöpfen und ML Ops in unsere Entwicklungsstrategien integrieren.

    HPE GreenLake for ML Ops ebnet den Weg für ML-Projekte mit einer Edge-to-Cloud-Plattform und verbrauchsbasierten Tarifen, die Ihnen einen nahtlosen Übergang von der Projektplanung zur Produktionsbereitstellung ermöglichen. HPE Apollo Hardware und HPE Ezmeral Software unterstützen jeden Aspekt Ihrer ML-Workloads, von der Datenvorbereitung bis hin zu Modellerstellung, Training, Bereitstellung, Management und Zusammenarbeit.

    HPE Ezmeral ML Ops ist eine End-to-End-Lösung für Data Science mit der Flexibilität, Workloads in On-Premises-Umgebungen, in mehreren Public Clouds oder in einem Hybrid-Modell auszuführen und auf dynamische Geschäftsanforderungen in einer Vielzahl von Anwendungsfällen zu reagieren. HPE Ezmeral ML Ops bewältigt die Herausforderungen der Operationalisierung von ML-Modellen im Unternehmensmaßstab, indem es eine Cloud-ähnliche Erfahrung bietet, kombiniert mit vorgefertigten Tools zur Operationalisierung des ML-Lebenszyklus. Mit HPE Ezmeral ML Ops können Kunden Modelle mit DevOps-ähnlicher Geschwindigkeit und Agilität erstellen, trainieren und bereitstellen. Es bietet eine zentrale Plattform, die alle Aspekte des ML-Lebenszyklus abdeckt – von der Datenvorbereitung bis hin zum Modellaufbau, Training, Bereitstellung, Überwachung und Zusammenarbeit – und End-to-End-Prozesse über den gesamten ML-Lebenszyklus hinweg operationalisiert, wodurch die Zeitpläne für Datenmodelle beschleunigt und die Markteinführungszeit verkürzt wird.

    Zugehörige HPE Lösungen, Produkte oder Services

    HPE Ezmeral ML Ops

    HPE GreenLake for Machine Learning

    HPE GreenLake for ML Ops

    Zugehörige Themen