Alan Zeichick | Senior Writer | 8. Oktober 2025
Cloud-natives Computing ist ein Ansatz zum Entwerfen, Entwickeln, Bereitstellen und Ausführen von Anwendungen, der die Möglichkeiten einer Cloud-Plattform vollständig ausschöpft. Traditionelle, oft monolithisch aufgebaute Software kann zwar sowohl im Data Center als auch in der Public Cloud betrieben werden, nutzt jedoch die Skalierbarkeit und Kostenvorteile einer Cloud-Umgebung nicht aus.
Hier setzt cloud-natives Computing an. Anstatt als eine einzige Anwendung auf einem Server installiert zu werden, wird Cloud-native Software aus Dutzenden, Hunderten oder sogar Tausenden kleiner Softwarebausteine zusammengestellt. Diese Bausteine – sogenannte Microservices – werden in Containern bereitgestellt und auf Cloud-Servern ausgeführt. Die Microservices kommunizieren über sichere Hochgeschwindigkeitsnetzwerke und arbeiten gemeinsam daran, geschäftliche Anforderungen zu erfüllen.
Welche Vorteile bietet dieser modulare Ansatz? Es gibt viele – und in diesem Dokument werden wir die wichtigsten beleuchten. Vier zentrale Pluspunkte sind besonders hervorzuheben:
Im nächsten Schritt gehen wir tiefer in die Konzepte ein und erläutern die Fachbegriffe, die zur Beschreibung der Besonderheiten des Cloud-nativen Computing verwendet werden.
Der Begriff „Cloud-nativ“ beschreibt einen Ansatz zum Entwerfen, Erstellen, Bereitstellen, Ausführen und Verwalten von Anwendungen, der die Vorteile verteilter Cloud-Architekturen vollständig nutzt. Cloud-native Anwendungen sind so aufgebaut, dass sie die Skalierbarkeit, Elastizität, Resilienz und Flexibilität der Cloud optimal ausschöpfen.
Die Cloud Native Computing Foundation (CNCF), die unabhängige Organisation, die viele der offenen Standards für cloud-natives Arbeiten verantwortet, definiert den Ansatz wie folgt:
Cloud-native Technologien versetzen Unternehmen in die Lage, skalierbare Anwendungen in modernen, dynamischen Umgebungen wie Public-, Private- und Hybrid-Clouds zu entwickeln und zu betreiben. Container, Service Meshes, Microservices, unveränderliche Infrastrukturen und deklarative APIs sind typische Beispiele für diesen Ansatz.
Diese Technologien ermöglichen lose gekoppelte Systeme, die resilient, gut verwaltbar und transparent sind. In Kombination mit einer starken Automatisierung können Entwickler häufig und zuverlässig Änderungen mit hoher Wirkung und bei minimalem Aufwand vornehmen.
Diese Definition lohnt es sich genauer zu betrachten.
Skalierbare Anwendungen können höhere Lasten bewältigen, ohne dass die Software neu geschrieben oder umgestaltet werden muss. Die „dynamischen Umgebungen“ beziehen sich auf Cloud-Computing-Plattformen wie Oracle Cloud Infrastructure (OCI), aber auch auf andere Public-, Private- und Hybrid-Clouds großer Anbieter.
Die erwähnten Technologien umfassen Container, in denen einzelne Microservices ausgeführt werden, sowie die Service-Mesh-Infrastruktur, die diese Container über Hochgeschwindigkeitsnetzwerke verbindet. Diese Netzwerke unterstützen Sicherheit, Transparenz, Richtliniensteuerung und Service-Erkennung. „Unveränderliche Infrastruktur“ bedeutet, dass Container nach ihrer Bereitstellung nicht verändert, sondern kontrolliert ersetzt werden. So bleibt eine verteilte Anwendung vorhersehbar und reproduzierbar – alle Instanzen eines Containers oder Microservices sind exakt identisch.
Ein letzter, sehr wichtiger Begriff ist „lose gekoppelt“. Das bedeutet, dass Microservices über klar definierte Protokolle miteinander kommunizieren. Diese sogenannten deklarativen APIs beschreiben genau, welche Aufgaben ein Microservice übernimmt, welche Daten er benötigt und welche Daten er nach Abschluss seiner Arbeit zurückgibt. Die internen Abläufe eines Microservices bleiben verborgen und können jederzeit geändert werden, ohne andere Teile der Anwendung zu beeinflussen. Dadurch wird die gesamte Anwendung robuster, skalierbarer und leichter zu aktualisieren.
Cloud-native Anwendungen können in jeder Cloud-Architektur betrieben werden – in Public-, Private-, Hybrid- oder Multicloud-Umgebungen. Eine Public Cloud überträgt Daten zwischen der Anwendung und dem Endnutzer oder Data Center über das Internet. In einer Private Cloud erfolgt die Datenübertragung ausschließlich innerhalb geschützter Netzwerke, wie z. B. einer cloudbasierten Umgebung im eigenen Data Center. Eine Hybrid Cloud kombiniert Public Clouds, Private Clouds und Unternehmens-Data-Center. Zusätzlich umfasst eine Multicloud-Bereitstellung mehrere kommerzielle Cloud-Anbieter. So kann ein Teil der Anwendung in OCI laufen, während ein anderer Teil beispielsweise in Microsoft Azure betrieben wird.
Wichtige Erkenntnisse
Cloud-native-Anwendungen bestehen aus unabhängigen Microservices, die in leichtgewichtigen, eigenständigen Containern bereitgestellt werden. Diese Container sind hochgradig portabel und lassen sich je nach Bedarf schnell skalieren. Durch die Kapselung der Microservices in Containern ermöglicht Cloud-nativ eine nahtlose Bereitstellung in verschiedensten Umgebungen – von Data Centern bis hin zu kommerziellen Cloud-Services – und auf unterschiedlichen Servertypen wie Linux oder Windows.
In typischen Cloud-nativen Architekturen wird die Funktionalität einer Anwendung auf Dutzende, Hunderte oder sogar Tausende spezialisierte Microservices aufgeteilt. Jeder Microservice erfüllt eine klar definierte Aufgabe. Nach der Entwicklung wird jeder Microservice in ein Container-Image verpackt – ein Auslieferungsformat, das auf einen Server geladen und dort ausgeführt werden kann. Der gängigste Containerstandard ist Docker, ein Open-Source-Format der CNCF, das von nahezu allen Cloud-Anbietern unterstützt wird.
Eine vollständige Unternehmensanwendung kann Tausende von Docker-Containern umfassen. Wie lassen sich all diese Container in einem Cloud-Service bereitstellen, mit den passenden Sicherheits- und Hochgeschwindigkeitsnetzwerken verbinden, Nachrichten zuverlässig an die richtigen Microservices weiterleiten und gleichzeitig Skalierbarkeit sowie vereinzelt auftretende Ausfälle abfangen? Genau hier kommt die Open-Source-Kubernetes-Plattform ins Spiel. Wie Docker wird Kubernetes von der CNCF unterstützt und hat sich als Branchenstandard etabliert. Ohne auf alle Details eingehen zu müssen, genügt es zu sagen, dass Kubernetes die gesamte komplexe Infrastruktur übernimmt und automatisiert, die für den Betrieb, das Management und die Skalierung umfangreicher Cloud-nativer Anwendungen erforderlich ist.
Wenn Microservices in Docker-Containern laufen und diese Container von Kubernetes in der Cloud bereitgestellt werden, entsteht eine vollständige, skalierbare und ausfallsichere Cloud-native Anwendung.
Das Gegenstück zu einer Cloud-nativen Anwendung ist eine traditionelle oder monolithische Anwendung, die als ein einziger Codebestand entsteht – meist entwickelt von einem einzelnen Team. Dieses Team schreibt und testet die Software und übergibt sie anschließend an das Operations-Team, das sie auf einem Server bereitstellt. Tritt ein Fehler auf, identifiziert das Entwicklungsteam das Problem, überarbeitet die Software und liefert eine neue Version. Das Operationsteam stoppt dann die laufende Anwendung, installiert die aktualisierte Fassung und startet sie erneut. Gleiches gilt für neue Funktionen: Die gesamte Anwendung muss ersetzt und neu installiert werden.
Im Gegensatz dazu wird eine Cloud-native Anwendung als Verbund vieler Microservices entwickelt, wobei jeder Microservice ein eigenes, unabhängiges Softwaremodul darstellt. Diese einzelnen Softwarebausteine werden unabhängig voneinander entwickelt, getestet und bereitgestellt – ohne Auswirkungen auf den übrigen Anwendungsteil. Dadurch verlaufen Überarbeitungen deutlich schneller und Aktualisierungen wesentlich reibungsloser. Entwickler können für jeden Microservice die jeweils besten Tools und Programmiersprachen auswählen.
Ein Vergleich macht es anschaulich: Stellen Sie sich vor, in Ihrem Haus beginnt der Wasserhahn im Gästebad zu tropfen. Um ihn zu reparieren, müssten Sie aus Ihrem „Haus 4.1“ ausziehen, es vollständig durch „Haus 4.2“ ersetzen und anschließend wieder einziehen. Möchten Sie ein einfaches Waschbecken durch ein Doppelwaschbecken ersetzen? Dann müssten Sie erneut ausziehen und „Haus 4.3“ installieren lassen. Das beschreibt das monolithische oder traditionelle Softwaremodell. Würden Sie so vorgehen? Natürlich nicht. Ein Installateur würde den Wasserhahn austauschen oder ein Handwerker nur das Gästebad renovieren – ohne den Rest des Hauses zu berühren. Und genau das entspricht dem Cloud-nativen Modell.
Die Einführung des Cloud-nativen Computing hat zudem eine Reihe neuer Konzepte und Fachbegriffe mit sich gebracht, die für das Verständnis der Vorteile dieses Modells wesentlich sind. Dazu gehören unter anderem:
Kubernetes ist für High Availability (HA) ausgelegt. Die automatische Wiederherstellung fehlerhafter Container bildet das Rückgrat von Cloud-nativen Architekturen. Diese leichtgewichtigen, eigenständigen Pakete – häufig mit Docker erstellt – enthalten alle erforderlichen Abhängigkeiten, um Anwendungen in unterschiedlichen Umgebungen zuverlässig auszuführen. Containerisierung ermöglicht Portabilität und unterstützt eine schnelle Bereitstellung.
Container stellen eine standardisierte und isolierte Umgebung bereit, sodass Anwendungen unabhängig voneinander laufen und Konflikte zwischen Abhängigkeiten vermieden werden. Diese Isolation verbessert zudem die Sicherheit, da potenzielle Schwachstellen auf einzelne Container begrenzt bleiben. Durch ihre geringe Größe nutzen Container Ressourcen besonders effizient.
Microservices unterteilen komplexe Anwendungen in kleinere, unabhängige Services. Jeder Service erfüllt eine klar abgegrenzte Aufgabe, sodass verschiedene Teams parallel an unterschiedlichen Komponenten arbeiten können. Das beschleunigt die Entwicklung erheblich.
Die Microservice-Architektur fördert Agilität und Flexibilität. Jeder Microservice kann unabhängig entwickelt, bereitgestellt und skaliert werden, was schnelle Updates und rasche Einführung neuer Funktionen ermöglicht. Diese Modularität verbessert zudem die Fehlereingrenzung, da Probleme in einem Service nicht die gesamte Anwendung beeinträchtigen.
Bei unveränderlicher Infrastruktur (Immutable Infrastructure) werden bereitgestellte Ressourcen nicht direkt verändert. Änderungen erfolgen durch das Erstellen neuer Instanzen mit aktualisierten Konfigurationen, was für Konsistenz sorgt und Rollbacks vereinfacht. Mithilfe von Infrastructure-as-Code (IaC)-Tools wird die Bereitstellung der Infrastruktur automatisiert, was Effizienz und Wiederholbarkeit deutlich verbessert.
IaC ermöglicht es, Infrastruktur als Code zu definieren – für bessere Versionskontrolle, automatisierte Tests und eine konsistente Bereitstellung über verschiedene Umgebungen hinweg. Dieser Ansatz behandelt die Infrastruktur als zentralen Bestandteil der Anwendung und unterwirft sie denselben strengen Verwaltungs- und Kontrollprozessen wie den Code selbst.
Automatisierung ist ein zentraler Bestandteil von Cloud-nativen Architekturen. Sie ermöglicht umfangreiche Bereitstellungen, die manuell nur schwer zu bewältigen wären. Container-Orchestrierungstools wie Kubernetes automatisieren die Verwaltung und Bereitstellung containerisierter Anwendungen. Diese Tools sorgen für High Availability, eine effiziente Ressourcenzuteilung und eine vereinfachte Skalierung und machen komplexe verteilte Systeme deutlich leichter handhabbar.
Automatisierung und Orchestrierung sind entscheidend, um die Skalierbarkeit, Fehlertoleranz und Self-Healing-Funktionen zu erreichen, die Cloud-native Systeme auszeichnen. Kubernetes-Cloud-Services ermöglichen eine dynamische Ressourcenzuweisung, sodass Anwendungen je nach Bedarf skalieren können und Ausfälle automatisch abgefangen werden.
Cloud-native Anwendungen werden zudem mit Blick auf Beobachtbarkeit entwickelt. Das bedeutet, dass Entwickler tiefere Einblicke in das Verhalten ihrer Systeme erhalten. Dazu gehört das Erfassen und Analysieren von Metriken, Logs und Traces, um Erkenntnisse zu Leistung, Ressourcennutzung und möglichen Problemen zu gewinnen.
Advanced monitoring tools bieten eine Echtzeitsicht auf den Zustand und die Leistung von Anwendungen. Sie ermöglichen eine proaktive Problembehebung, sodass Entwickler mögliche Störungen erkennen und beheben können, bevor sie sich auf Nutzer auswirken. Beobachtbarkeit- und Management-Services sind entscheidend, um die Anwendungsleistung zu optimieren und Ressourcen effizient einzusetzen.
Resilienz ist ein zentrales Merkmal Cloud-nativer Systeme und ermöglicht ihnen, sich von Ausfällen zu erholen und stabil zu bleiben. Strategien wie Replikation, Load-Balancing und automatisierte Wiederherstellungsmechanismen tragen wesentlich dazu bei. Diese sogenannten selbstkorrigierenden Funktionen erkennen Probleme und beheben sie ohne manuelles Eingreifen – und gewährleisten so eine hohe Verfügbarkeit.
Cloud-native Anwendungen sind darauf ausgelegt, Ausfälle kontrolliert abzufangen und die Betriebsunterbrechung so gering wie möglich zu halten. Selbstkorrigierende Mechanismen erkennen Probleme automatisch und beheben sie selbstständig, sodass Anwendungen stabil und zuverlässig weiterlaufen. Diese Resilienz ist für geschäftskritische Prozesse unverzichtbar und sorgt für eine verlässliche Benutzererfahrung.
Der Cloud-native Ansatz bietet Unternehmen die Möglichkeit, deutliche Vorteile gegenüber dem Betrieb traditioneller monolithischer Anwendungen zu erzielen. Zu diesen Vorteilen gehören unter anderem:
Hier finden Sie einige der wichtigsten Features und Vorteile des Cloud-nativen Computing.
| Features | Vorteile |
|---|---|
| Microservices-Architektur | Wenn Unternehmensanwendungen aus kleinen Codebausteinen bestehen, die jeweils eine eigene geschäftliche Funktion erfüllen – sogenannte Microservices –, lassen sie sich schneller entwickeln, leichter verwalten, besser skalieren und deutlich robuster betreiben. Zudem werden Upgrades und Erweiterungen erheblich vereinfacht. |
| Container und Containerisierung | Microservices werden häufig in Containern gebündelt, die sich problemlos auf Cloud-Servern bereitstellen lassen. Da ein Container exakt definiert und sorgfältig aufgebaut ist, kann er auf jedem kompatiblen Server eines Cloud-Services ausgeführt werden. Bei hoher Auslastung können mehrere Instanzen eines Containers bereitgestellt werden, und ein bestehender Container lässt sich einfach durch eine aktualisierte Version ersetzen – ohne Auswirkungen auf den übrigen Anwendungsteil. |
| Kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) | CI/CD ist ein Prozess, bei dem Entwicklungsteams mithilfe einer Pipeline Microservices entwerfen, erstellen, testen und in Container überführen, die anschließend auf Cloud-Servern bereitgestellt werden. CI/CD ermöglicht schnellere Releasezyklen, steigert die Produktivität der Entwicklungsteams und unterstützt automatisierte Workflows, um Software deutlich schneller auszuliefern. |
| Unveränderliche Infrastruktur | Unveränderliche Komponenten wie Container werden nach ihrer Bereitstellung nicht mehr verändert. Bei einer Aktualisierung wird der bestehende Container einfach ersetzt. Dies führt zu konsistenter Software, erleichterten Rollouts und der Möglichkeit, eine Anwendung problemlos in ein neues Cloud-Data-Center oder sogar zu einem anderen Serviceprovider zu replizieren. |
| DevOps-Praktiken | DevOps bezeichnet die Zusammenführung traditioneller Entwicklungs- und Operationsteams zu einer gemeinsamen Einheit. DevOps-Teams entwickeln und testen die Software, stellen sie bereit und übernehmen auch das operative Management nach der Bereitstellung. In Kombination mit CI/CD und Automatisierung können neue Softwareversionen schnell ausgeliefert werden, und da Verantwortlichkeiten klar geregelt sind, lassen sich Probleme rasch beheben. |
| Beobachtbarkeit und Monitoring | Die Beobachtbarkeit unterstützt DevOps-Teams dabei, das Verhalten einer Anwendung während des Betriebs besser zu verstehen. Monitoring bezeichnet dabei die Praxis, Logdateien auszuwerten und Leistungsmetriken zu analysieren. Gemeinsam unterstützen diese Funktionen Teams dabei, Probleme schneller zu erkennen und zu beheben. Zudem ermöglichen sie eine gezielte Leistungsoptimierung und das Einhalten von Service-Level-Anforderungen – für die zugesagte Verfügbarkeit und Reaktionsfähigkeit der Anwendungen. |
| Cloud-Plattformen | Cloud-Plattformen wie OCI stellen in der Regel alle Ressourcen bereit, die für den Betrieb Cloud-nativer Anwendungen erforderlich sind. Dazu gehören Server für Docker-Container, sichere Hochgeschwindigkeitsnetzwerke, vorinstallierte Kubernetes-Engines sowie Tools für Beobachtbarkeit und Monitoring. Durch die Skalierbarkeit Cloud-nativer Anwendungen lassen sich Effizienzgewinne erzielen und Betriebskosten senken. |
Cloud-natives Computing klingt anspruchsvoll – und das ist es auch. Insbesondere für Unternehmen, die neu in der Cloud sind und über viele Jahre traditionelle monolithische Softwarelandschaften aufgebaut haben. Hier sind einige der Herausforderungen, mit denen Unternehmen konfrontiert sind, wenn sie zum ersten Mal auf Cloud-natives Computing setzen.
Kein Unternehmen beschreitet denselben Weg hin zum Cloud-nativen Computing. Dennoch orientieren sich die meisten an diesen sieben Best Practices.
Oracle bietet alles, was für den Aufbau und die Bereitstellung Cloud-nativer Anwendungen benötigt wird – einschließlich Tools, Services und Automatisierung. So können Entwicklungsteams schneller arbeiten und gleichzeitig die Anzahl operativer Aufgaben reduzieren.
Oracle Cloud Native Services laufen auf OCI, einer standardbasierten Plattform, die höhere Performance bei niedrigeren Kosten bietet als andere Cloud-Anbieter. Durch den Einsatz von Services, die auf Open Source und offenen Standards basieren, ermöglicht OCI den Betrieb von Anwendungen in jeder Cloud oder On-Premises – ohne erneute Anpassung oder Refactoring. Diese Flexibilität verschafft Teams die Freiheit, sich auf Innovation und Weiterentwicklung zu konzentrieren. Dazu zählen auch leistungsstarke generative KI-Funktionen sowie vorkonfigurierte AI/ML-Services, mit denen sich bestehenden Anwendungen neue Fähigkeiten und mehr Intelligenz verleihen lassen.
Ermöglicht eine Cloud-native Anwendungsentwicklung wirklich Apps, die wesentlich besser sind, als dies bei der herkömmlichen Entwicklung möglich wäre? Ja. Die Vorteile liegen auf der Hand: Cloud-native Anwendungen können skalieren, weil ihre Funktionen in Microservices aufgeteilt sind und sich einzeln verwalten lassen. Zudem können sie hochgradig verteilt ausgeführt werden, bleiben unabhängig und nutzen Ressourcen entsprechend den jeweiligen Anforderungen.
Cloud-native Anwendungen stärken Geschäftsstrategie und Mehrwert, da sie eine konsistente Nutzererfahrung über private, öffentliche und hybride Clouds hinweg ermöglichen. Sie versetzen Ihr Unternehmen in die Lage, die Vorteile des Cloud-Computing vollständig auszuschöpfen – durch reaktionsschnelle, zuverlässige und skalierbare Anwendungen.
Möchten Sie tiefer in Cloud-native Architekturen einsteigen? Laden Sie unser kostenloses E-Book herunter und entdecken Sie, wie jedes Unternehmen bereits heute Cloud-native Entwicklungsstrategien einführen kann.
Wie unterscheidet sich eine Cloud-native Architektur von traditionellen Anwendungsarchitekturen?
Eine Cloud-native Architektur zerlegt große, komplexe Unternehmensanwendungen in zahlreiche Microservices, von denen jeder eine bestimmte Geschäftsfunktion übernimmt. Die Anwendung funktioniert, indem diese Microservices über ein Hochgeschwindigkeitsnetzwerk miteinander kommunizieren und gemeinsam Aufgaben ausführen. Jeder Microservice wird eigenständig definiert, entwickelt, getestet, bereitgestellt, verwaltet und aktualisiert. Das führt zu schnelleren Deployments und ermöglicht eine deutlich höhere Skalierbarkeit. Wenn ein Microservice beispielsweise eine hohe Auslastung erkennt, kann eine Cloud-native Anwendung automatisch eine Kopie dieses Microservices auf einem anderen Server erstellen und die Last zwischen beiden Instanzen aufteilen. Im Gegensatz dazu besteht eine traditionelle Anwendungsarchitektur aus einer einzigen Codebasis (einem Monolithen), die als Gesamteinheit entworfen, entwickelt, getestet und bereitgestellt wird. Fehlerbehebungen oder Aktualisierungen führen zu Änderungen am Monolithen, der anschließend neu bereitgestellt werden muss. Dadurch verlaufen Software-Rollouts häufig langsam. Die Skalierbarkeit ist ebenfalls herausfordernd und erfordert oft entweder eine Neuarchitektur (und Neuentwicklung) der Anwendung oder den Einsatz eines leistungsstärkeren – und meist teureren – Servers.
Wie können Unternehmen ihre bestehenden Anwendungen erfolgreich in Cloud-native Anwendungen umwandeln?
Bestehende monolithische Anwendungen können zu Cloud-nativen Anwendungen umgewandelt werden. Dazu werden Teile des Codes identifiziert, die sich in Microservices aufteilen lassen – häufig beginnend mit Abschnitten, die sich leicht herauslösen lassen oder die Performance-Engpässe verursachen. Durch die schrittweise Bearbeitung einzelner Komponenten kann ein Monolith viele Vorteile des Cloud-nativen Ansatzes realisieren.
Was ist die CNCF?
Die Cloud Native Computing Foundation (CNCF) ist eine herstellerneutrale Open-Source-Organisation unter dem Dach der Linux Foundation. Ihr Ziel ist die Förderung Cloud-nativer Technologien. Sie stellt grundlegende Unterstützung für zahlreiche Projekte und Industriestandards bereit, darunter das Docker-Containerformat und die Kubernetes-Plattform für Automatisierung und Orchestrierung von Containern. Viele Cloud-Anbieter, darunter auch Oracle, unterstützen die Arbeit der CNCF und übernehmen ihre Standards, um die Interoperabilität zwischen verschiedenen Cloud-Ökosystemen zu fördern.
Was ist der Unterschied zwischen Cloud und Cloud-nativ?
Cloud bezeichnet Computing-Services, die von kommerziellen Serviceprovidern wie Oracle bereitgestellt werden. Dazu gehören verschiedenste Servertypen, Hochgeschwindigkeitsnetzwerke, Speichersysteme, Bibliotheken mit fortgeschrittenen Funktionen (wie z. B. für KI oder Sicherheit) sowie komplette Geschäftsanwendungen. Nahezu jede Website oder Anwendung, die Sie über einen Browser nutzen, läuft ganz oder teilweise in der Cloud; der Rest wird in Unternehmensrechenzentren betrieben. Auch viele mobile Apps sind auf Cloud-Services angewiesen, um wichtige Funktionen bereitzustellen.
„Cloud-nativ“ ist ein Ansatz zur Entwicklung von Geschäftsanwendungen, bei dem die Anwendung in Dutzende oder Hunderte Microservices aufgeteilt wird. Jeder Microservice kapselt eine wichtige Geschäftsfunktionalität. Die Anwendung funktioniert, indem diese Microservices über sichere Hochgeschwindigkeitsnetzwerke zusammenarbeiten und jeweils ihren Teil der Workload übernehmen. Cloud-native Anwendungen nutzen die Ressourcen eines Cloud-Serviceproviders, um Skalierbarkeit, Effizienz und Resilienz sicherzustellen.