Kommentar von Douglas McDowell, SolarWinds Drei Grundsätze für effektives DataOps
Anbieter zum Thema
Nicht selten sind Daten die wertvollste Ressource eines Unternehmens – manchmal sind sie sogar wertvoller als das Unternehmen selbst. Doch wenn diese Daten ungenau sind oder aufgrund von Bereitstellungsproblemen zu spät verfügbar sind, kann das Unternehmen sie nicht nutzen, um fundierte Entscheidungen zu treffen.

Es ist nicht einfach, sich einen soliden Überblick über die Daten-Assets eines Unternehmens zu verschaffen. Umgebungen sind komplex und ständig im Wandel. Außerdem sind das Verfolgen der Datenherkunft, das Analysieren ihrer Abhängigkeiten und das Aktualisieren der Dokumentation ressourcenintensive Aufgaben.
Hier kommt DataOps ins Spiel. Bei DataOps – nicht zu verwechseln mit DevOps – handelte es sich anfangs um eine Reihe von Best Practices für die Datenanalyse. Im Laufe der Zeit entwickelte sich daraus eine eigenständige Praxis. Das Versprechen: DataOps beschleunigt den Datenlebenszyklus von der Entwicklung datenorientierter Anwendungen bis hin zur Bereitstellung präziser geschäftskritischer Informationen an Endnutzer und Kunden.
:quality(80)/p7i.vogel.de/wcms/15/e1/15e1fe9370aee6312a3fa1ae471848f0/0105134390.jpeg)
Cloudanbindung
Sechs Tipps zur Reduzierung von Entwicklungsaufwand
DataOps ist entstanden, weil der Datenbestand in den meisten Unternehmen ineffizient organisiert war: Es gab viele verschiedene IT-Silos, die gar nicht oder nicht effektiv miteinander kommunizierten. Tools, die für bestimmte Aufgaben des einen Teams entwickelt worden waren, hinderten ein anderes Team daran, transparente Einblicke in die Daten zu erhalten. Die Integration von Datenquellen erfolgte planlos, manuell und oft auf problematische Weise. Das traurige Ergebnis: Die Qualität und der Wert der an die Endnutzer gelieferten Informationen blieben hinter den Erwartungen zurück.
DataOps ist die Lösung für dieses Problem, doch manche Führungskräfte befürchten, dass es nicht hält, was es verspricht, und sie am Ende Zeit und Geld verschwenden. DataOps wirkt wie ein hohes Risiko, das bestehende Prozesse aus dem Gleichgewicht bringt. Wiegen die Vorteile die Unannehmlichkeiten auf, die beim Einführen des neuen Prozesses entstehen? Erinnern wir uns an die Rule of Ten: Es kostet zehnmal so viel, eine Aufgabe mit fehlerhaften Daten zu erledigen statt mit guten Informationen. Dieses Argument reicht bereits aus, um aufzuzeigen, dass DataOps unverzichtbar und definitiv den Aufwand wert ist.
Mit drei „Must-haves“ den Grundstein für effektives DataOps legen
Allgemein gesagt verbessert DataOps die Kommunikation zwischen Daten-Stakeholdern. Es befreit Unternehmen von ihren wachsenden Datensilos. DataOps ist nicht neu und erst recht kein nerviges Modephänomen: Viele agile Unternehmen praktizieren DataOps bereits, auch wenn sie den Begriff möglicherweise nicht kennen oder verwenden. DataOps kann eine transformative Wirkung haben, doch um damit Erfolge zu erzielen, sollten Unternehmen einige Grundsätze beachten.
1. Sich zu Observability verpflichten
Observability ist für den gesamten DataOps-Prozess von grundlegender Bedeutung. Sie bietet Unternehmen einen Überblick über ihre CI/CD-Pipelines. Ohne Observability kann ein Unternehmen nicht auf sichere Weise Automatisierungen oder Continuous Delivery einsetzen.
In einer qualifizierten DevOps-Umgebung muss Observability für jedes Teammitglied zugänglich sein. Die Verpflichtung zur Observability erhöht ihre Priorität in der Datenpipeline: Man überwacht und optimiert, bevor etwas in die Produktion geht. Das gilt bereits für die ersten Schritte beim Entwerfen der Datenbank. Außerdem betrachtet man auch seine nicht produktiven Systeme sowie alle, die diese Daten verwenden. So sieht man, wie gut Anwendungen mit den Daten interagieren, bevor die Datenbank in Produktion geht.
Mit Monitoring-Tools ist man besser informiert und führt mehr Diagnosen durch. Die Empfehlungen werden besser und man behebt Fehler, bevor sie sich verfestigen und größer werden. Außerdem bietet das Monitoring Kontextinformationen für Datenexperten. Mit dem Daten-Monitoring als Bestandteil von Observability können Datenexperten sicherstellen, dass der Betrieb läuft wie erwartet.
2. Ein Mapping des Datenbestands erstellen
Man sollte den eigenen Bestand genau kennen: Wo befinden sich die Daten und was ist ihre Herkunft? Anschließend sollte man eine Auswirkungsanalyse durchführen, um zu wissen, wo die Daten herkommen und wohin sie gehen. Das Mapping des Datenbestands entspricht einer Art Schlachtplan. Es hilft dem Unternehmen, seine Ziele zu identifizieren und zu priorisieren, etwa das Ziel, die Kundenbindung zu stärken oder den eigenen Marktanteil zu erhöhen. Indem man die Ziele ausformuliert und den Bestand an verfügbaren Tools überblickt, erfährt man genauer, welche Legacy-Systeme nicht mehr nützlich sind und welche Funktionen man erwerben muss.
3. Tests automatisieren
Effektive Tests erfordern eine Automatisierung. Außerdem müssen sie kontinuierlich mit den neuesten Daten durchgeführt werden. Neue Daten sind unbeständig. Doch indem man sicherstellt, dass das System so stabil ist wie nur möglich, indem man es mit den unbeständigsten Daten testet, über die man verfügt und indem man das System schnellstmöglich an seine Grenzen bringt, kann man verhindern, dass man etwas in die Produktion gibt, das noch nicht ausgereift ist, und man dann möglicherweise vor einer bösen Überraschung steht. Egal ob mit einem Produkt von Drittanbietern oder ob man eigene Skripts selbst schreibt, sollte man Belastungstests durchführen, während die Daten die CI/CD-Pipeline durchlaufen. Ziel ist es zu verstehen, was man hat, bevor man es tatsächlich verwendet.
Fazit
DataOps ist unverzichtbar, um zum Data Business zu werden. Es ist das Fundament der Datentransformation. Mit diesen drei Grundbausteinen lässt sich herausfinden, worüber man bereits verfügt und was man noch benötigen, um die nächste Ebene zu erreichen.
(ID:48446024)