Alan Zeichick | Content Strategist | 31. Mai 2023
Um Geschäftsdaten sinnvoll zu nutzen, ist eine Rentabilitätsberechnung ebenso unerlässlich wie bei einer Investition in eine Fabrik, eine Büroerweiterung oder Forschungs- und Entwicklungsaktivitäten. Unternehmen können ohne Daten nicht arbeiten – Daten über Kunden, Produkte, Transaktionen, Mitarbeiter, Finanzen, die Wirtschaft und Mitbewerber. Diese Informationen sind entscheidend für Wachstum und Erfolg. Doch qualitativ hochwertige Daten verursachen Kosten – für ihre Beschaffung, Speicherung, Verwaltung, Sicherung und Analyse. Je mehr Daten Unternehmen besitzen, desto besser können sie Kunden bedienen und mit Partnern zusammenarbeiten – allerdings steigt damit auch der Aufwand an Zeit, Energie und Ressourcen für das gesamte Datenökosystem. Unternehmen profitieren davon, Daten konsequent mit einer Rendite-orientierten Denkweise zu betrachten.
Dieser Artikel konzentriert sich vor allem auf die Kostenseite der Daten-ROI-Gleichung und zeigt Wege auf, wie sich die Ausgaben für die Erfassung, Speicherung, Sicherung und Nutzung von Daten kontrollieren und minimieren lassen.
Datenkosten sind die Aufwendungen, die mit der Beschaffung, Verwaltung, Sicherung und Nutzung von Geschäftsdaten verbunden sind. Viele dieser Kosten sind klar nachvollziehbar. Die Daten müssen physisch gespeichert werden – wie z. B. On-Premises auf einer Festplatte oder einem Storage-Array oder in einer cloudbasierten Umgebung, die wiederum aus physischen Laufwerken besteht. Zur Organisation der Daten werden Softwarelösungen wie Content-Management-Systeme, relationale Datenbanken, ein Data Warehouse oder Data Lake oder andere Strukturen benötigt. Diese Software verursacht Lizenzkosten oder Abonnement- bzw. Supportgebühren, auch wenn Open-Source-Lösungen genutzt werden. Darüber hinaus müssen Daten regelmäßig gesichert werden. Das erfordert zusätzlichen Speicherplatz sowie Software, um Sicherungen zu verwalten und im Bedarfsfall eine teilweise oder vollständige Wiederherstellung zu ermöglichen – wie z. B. bei Datenverlust oder physischen Schäden.
Es können zudem Lizenzgebühren oder andere Kosten anfallen, wenn Daten von Drittanbietern erworben werden. Sicherheits- und Zugriffskontrollen sind erforderlich – oft, um Branchenstandards oder gesetzliche Vorschriften einzuhalten und Datenschutzanforderungen zu erfüllen. Auch die Validierung der Daten sowie Maßnahmen zur Sicherung oder Verbesserung ihrer Qualität verursachen Kosten, wie z. B. durch die Korrektur veralteter Informationen.
Weitere Ausgaben entstehen, um die Daten optimal zu nutzen – beispielsweise durch Software für Benutzeroberflächen, Analysen, Berichte oder den Einsatz von Deep-Learning- und KI-Lösungen zur Gewinnung neuer Erkenntnisse.
Hinzu kommen Kosten für Leistung und Skalierbarkeit. Wenn Datenmengen von Megabyte auf Terabyte oder sogar Petabyte anwachsen, sind fortschrittliche Software, sorgfältige Planung und oft Automatisierungstools erforderlich, um diese Daten effizient zu verwalten und zu nutzen. Zudem braucht es die entsprechende Hardware, um sie im großen Maßstab zu speichern und darauf zuzugreifen. Und für all diese Aufgaben müssen Unternehmen qualifizierte Fachkräfte einstellen, die die Datenmanagement-Tools betreiben und verwalten.
Wichtige Erkenntnisse
Die Senkung von Datenkosten beginnt mit einem klaren Verständnis darüber, welche Arten von Daten ein Unternehmen besitzt. Ein Teil davon ist relational – also in Zeilen und Spalten strukturiert. Andere Daten sind unstrukturiert und bestehen aus Dokumenten, Bildern, Videos oder Binärdateien. Sobald ein Unternehmen seine Datenbestände kennt, sollte es im nächsten Schritt das optimale Speicherformat bestimmen – wie z. B. eine relationale Datenbank, eine NoSQL-Datenbank oder ein Dokumenten-Repository – und prüfen, ob sich durch Datenbankkonsolidierung Effizienzgewinne erzielen lassen. Ebenso wichtig ist zu wissen, woher die Daten stammen, wo sie gespeichert sind und wie und wo sie genutzt werden.
Hat ein Unternehmen diesen Überblick gewonnen, sollte es eine flexible Datenarchitektur einführen, die alle Datenquellen und -anwendungsfälle berücksichtigt und eine optimierte Beschaffung, Verwaltung, Speicherung und Analyse ermöglicht. Ein zentraler Bestandteil dieser Architektur ist die Definition eines geeigneten Data-Governance-Modells, das festlegt, wie Daten verwendet werden dürfen. Ebenso entscheidend ist die Auswahl der richtigen On-Premises- oder Cloud-Datenmanagementsysteme, um Kosten zu senken und gleichzeitig Leistung, Flexibilität, Sicherheit und Nutzbarkeit zu maximieren. All diese Schritte versetzen ein Unternehmen in die Lage, den Wert und Nutzen jeder Datenmenge zu bewerten und gezielte Maßnahmen zu ergreifen, um die Kosten für die Bereitstellung dieses Werts zu minimieren.
Ganz gleich, wie viele Daten ein Unternehmen heute besitzt – es kommen ständig neue hinzu, oft im Sekundentakt. Ein großer Teil dieser Daten ist essenziell, um Geschäftsprozesse zu steuern, Transaktionen abzuwickeln, Kunden und Partner zu bedienen, das Management zu unterstützen, Finanzberichte zu erstellen und Compliance-Anforderungen zu erfüllen. Ein Teil dieser Daten hat jedoch nur geringen oder gar keinen Wert. Im Folgenden finden Sie 11 Möglichkeiten, um die Kosten für die Erfassung, Umwandlung, Speicherung, Sicherung und Nutzung von Daten zu senken. In manchen Fällen führen diese Maßnahmen eher zu indirekten Einsparungen – wie z. B. durch höhere geschäftliche Agilität, gesteigerte Produktivität oder andere Effizienzgewinne – als zu direkten Budgetkürzungen.
Bestimmen Sie die am besten geeigneten Datenmanagementsysteme auf Grundlage Ihrer geplanten Anwendungsfälle und Datenmengen – wie z. B. Transaktionsdatenbanken, Data Warehouses, Data Lakes oder Machine-Learning-Tools. Durch die Konsolidierung von Daten und Workloads in weniger Datenbanken lassen sich Kosten für Softwarelizenzen und Datenmanagement senken. Zudem reduziert die Wahl der passenden Speicher- und Verwaltungstechnologie den Aufwand für die Erstellung und Pflege von Integrationen und trägt so zusätzlich zur Kosteneffizienz bei.
Cloudbasierte Datenmanagementsysteme bieten oft eine höhere Skalierbarkeit und einfachere Verwaltung als On-Premises-Systeme – bei gleichzeitig niedrigeren Gesamtkosten. Sie überzeugen zudem durch bessere Resilienz, Konnektivität, Sicherheit und integrierte Management-Services. Darüber hinaus lassen sich mit Cloudlösungen in der Regel auch die Personalkosten für den Betrieb und die Wartung der Infrastruktur senken.
Manuelle Prozesse im Datenmanagement sind schwer skalierbar und anfällig für menschliche Fehler oder uneinheitlich angewandte Richtlinien. Automatisierte Prozesse – wie sie beispielsweise in einer autonomen Datenbank genutzt werden – bieten mehr Vorhersagbarkeit, hohe Sicherheit und führen zugleich zu Einsparungen bei den Personalkosten.
Daten-Governance-Richtlinien legen fest, wie ein Unternehmen seine Daten optimiert und schützt sowie wie es diese zur Unterstützung der Geschäftsprozesse nutzt. Effektive Governance-Richtlinien können unter anderem Datenredundanzen vermeiden – was dazu führt, dass weniger Daten gespeichert, gesichert und analysiert werden müssen.
Die Nutzung eines führenden Open-Source-Datenbanksystems bietet zahlreiche Vorteile – darunter eine große, vielfältige Entwicklergemeinschaft, hohe Zuverlässigkeit, ein breites Ökosystem an Tools und Software, individuelle Anpassungsmöglichkeiten sowie geringere Lizenzkosten. Ob Open Source tatsächlich zu niedrigeren Gesamtkosten führt, sollte jedoch sorgfältig geprüft werden. Eine weitere Möglichkeit, von diesen Vorteilen zu profitieren, sind verwaltete Cloud-Services, die auf Open-Source-Software basieren.
Daten sind die Grundlage für tägliche Transaktionen und Geschäftsabläufe – ein unverzichtbarer Ausgangspunkt. Doch der eigentliche Wettbewerbsvorteil entsteht durch Analysen. Sie verwandeln Daten in Erkenntnisse, die helfen, Trends zu erkennen, Betriebskosten zu senken, Umsätze zu steigern und Kunden besser zu bedienen. Dazu können Big-Data-Initiativen gehören, die mithilfe von KI Erkenntnisse aus großen und vielfältigen Datensammlungen gewinnen. Ein Hinweis zur Vorsicht: Datenanalysen sollten den „Return“ in Ihrer ROI-Gleichung erhöhen, führen jedoch in der Regel nicht zu geringeren Gesamtkosten im Datenmanagement, da zusätzliche Kosten für Analysetools entstehen.
Die Datenbereinigung umfasst das Korrigieren von Fehlern und Inkonsistenzen in den Datenzeilen und -spalten – basierend auf branchenüblichen sowie individuell angepassten Regeln. Während rohe, unbereinigte Daten für Transaktionen oft ausreichen, sind Analysen mit sauberen Daten deutlich präziser und aussagekräftiger. Zudem lassen sich bereinigte Daten mit weniger Aufwand und geringeren Kosten auswerten. Allerdings sollte man die möglichen Einsparungen durch Datenhygiene nicht überschätzen: Die tatsächlich entfernte Datenmenge ist meist gering, und auch die Bereinigung selbst verursacht Kosten. Der Hauptnutzen liegt daher eher in der verbesserten Analysequalität als in unmittelbaren Kostensenkungen.
Unabhängig davon, ob Datenprozesse On-Premises oder in der Cloud ablaufen, liefert die Analyse des Netzwerkverkehrs wertvolle Einblicke in effiziente Abläufe und mögliche Engpässe. Durch die Überwachung von Nutzung und Netzwerkaktivität lassen sich Bereiche identifizieren, in denen Konfigurationsanpassungen die Leistung und Produktivität verbessern können. Zudem kann das Monitoring aufzeigen, wo Datenzugriffe übermäßig viele Rechen- oder Speicherressourcen beanspruchen – und so Potenziale für eine optimierte, kosteneffizientere Architektur aufdecken.
Woher stammen Ihre Daten? Welche Datenquellen sind für Ihr Unternehmen am wichtigsten? Die Analyse und anschließende Visualisierung der Datenherkunft kann helfen, die Data Governance zu optimieren und Daten – ob intern erzeugt oder extern bezogen – effizienter zu nutzen, insbesondere im Bereich Big Data. Auch wenn dies meist keine großen direkten Einsparungen bringt, lassen sich so möglicherweise unnötige oder ungenutzte Drittanbieterdaten identifizieren, für die derzeit Kosten anfallen.
Sie können Ihre Datenarchitektur, Server, Ressourcen und Anwendungen selbst verwalten – oder diese technischen Aufgaben einem spezialisierten Dienstleister überlassen. Dadurch können Sie sich stärker auf Ihr Kerngeschäft konzentrieren, arbeiten effizienter und verringern zugleich Risiken. Zudem verfügen Serviceanbieter über erfahrenes Fachpersonal und optimierte Tools, mit denen sich die Aufgaben häufig kostengünstiger erledigen lassen. Eine genaue Kosten-Nutzen-Analyse lohnt sich in jedem Fall.
Einige Bereiche Ihres Unternehmens sind stark von Daten abhängig – doch welche Daten sind wirklich entscheidend? Wie werden sie genutzt? Wo und wann kommen sie zum Einsatz? Und wer greift darauf zu? Nutzen Sie diese Erkenntnisse, um den Einsatz Ihrer technologischen Ressourcen und Ihres Datenmanagement-Budgets gezielt zu steuern.
Erfahren Sie, wie Sie automatisierte und integrierte generative KI und maschinelles Lernen in einem Cloud-Service für Transaktionen und Analysen im Seehouse-Maßstab verwenden.
Das Ziel eines Programms zur Senkung der Datenkosten besteht darin, mit weniger Aufwand mehr zu erreichen: tiefere Geschäftseinblicke zu gewinnen, schneller auf Veränderungen zu reagieren und gleichzeitig die Ausgaben für das Datenmanagement zu reduzieren.
Viele große und kleine Unternehmen senken die Datenkosten, indem sie die Cloud und moderne Datenarchitekturen nutzen.
Daten sind das Rückgrat Ihres Unternehmens – sie unterstützen alles von der Rechnungsstellung bis zu Übersetzungsprotokollen, von Dokumenten über Ersatzteilkataloge bis hin zu Preislisten und Lagerbeständen. Wenn Sie diese Betriebsdaten effizienter nutzen, erschließen Sie neue Geschäftsmöglichkeiten. Doch täglich wächst die Datenmenge – und mit ihr die Kosten. Zum Glück können Sie Maßnahmen ergreifen, um Ihre Datenkosten zu senken, ohne Wachstum und Effizienz zu beeinträchtigen.
HeatWave ermöglicht Ihnen den Einsatz automatisierter, integrierter generativer KI und Machine Learning in einem einzigen Cloud-Service – für Transaktionen und Analysen im Lakehouse-Maßstab. Unternehmen können so die Kosten und die Komplexität separater Analyse- und Vektordatenbanken, Machine-Learning-Services und ETL-Prozesse eliminieren – und gleichzeitig die Latenz und Sicherheitsrisiken durch Datenbewegung zwischen Speicherorten vermeiden. Dank integrierter, KI-gestützter Automatisierung sparen Entwickler und Datenbankadministratoren erheblich Zeit, steigern die Leistung und senken Kosten. HeatWave ist auf Oracle Cloud Infrastructure (OCI), Amazon Web Services (AWS), Microsoft Azure und in Data Centern von Kunden mit OCI Dedicated Region verfügbar.
Die Abfrageperformance von HeatWave Lakehouse ist 15X schneller als Amazon Redshift, 18X schneller als Databricks und Snowflake und 35X schneller als Google BigQuery. Auch das Preis-Leistungs-Verhältnis ist deutlich besser. Viele schnell wachsende Unternehmen nutzen HeatWave, um ihre Dateninfrastruktur zu vereinfachen und ihre Verwaltungskosten zu reduzieren – bei gleichzeitiger Verbesserung von Leistung, Skalierbarkeit, Sicherheit und Produktivität.
Was ist der erste Schritt beim Aufgeben eines Data Centers?
Wenn Sie planen, ein Data Center aufzugeben, führen Sie eine gründliche Untersuchung der Anwendungen, Daten, Services, Benutzer und Sicherheitsanforderungen durch. Für alles in dieser Untersuchung ist ein Migrationsplan erforderlich, egal ob es darum geht, die vorhandenen Anwendungen und Daten durch „Lift-and-Shift“ in die Cloud zu bringen, neue Anwendungen auszuwählen oder neue Anwendungen von Grund auf neu zu erstellen.
Wie lange ist die Lebensdauer von Geräten in einem Data Center?
Große Teile der Data-Center-Infrastruktur, wie z. B. HLK-Systeme (Heizung, Lüftung und Klimaanlage), Stromverteilung und physische Sicherheitssysteme, könnten bei regelmäßiger Wartung ein Jahrzehnt oder länger halten. Die Computerausrüstung wie Server, Router, Switches und Speicher sind als Faustregel drei bis fünf Jahre lang gut, bevor sie veraltet sind.
Wer ist für die Sicherheit in der Cloud verantwortlich?
Die physische Sicherheit der Cloud-Infrastruktur – die Server, Netzwerkinfrastruktur usw. – wird von den Cloud-Providern verwaltet. Die Verantwortung für die Sicherung der Software und Services wird zwischen dem Cloud-Provider und dem Unternehmen geteilt.
Wie lange dauert das Aufgeben eines Data Centers?
Planen Sie einen vollständigen Ausstieg aus dem Data Center ein, der Monate dauern wird. Bei einer größeren IT-Infrastruktur könnte dies Jahre dauern. Es hängt alles von der Größe des Data Centers, seiner Komplexität und der Datenmenge ab. Ein Großteil dieser Zeit wird für eine gründliche Bestandsaufnahme, das Entwickeln von Plänen, das Erstellen und Testen neuer Software (falls erforderlich) und Schulungen aufgewendet. Wie bei einem Büroumzug ist die eigentliche Migration und der Ausstieg selbst eine relativ kurze Phase, sobald die Planung abgeschlossen ist.
Erfahren Sie, wie Sie von generativer KI profitieren, ML-Modelle erstellen, Daten im Objektspeicher abfragen oder andere Themen zu HeatWave erkunden können.