Cloud-Preise vergleichen 2025: AWS, Azure & GCP im Detail. Finden Sie den günstigsten Anbieter für Ihr Unternehmen. Jetzt informieren!


Unternehmen verlieren durchschnittlich 32 % ihrer Cloud-Ausgaben durch ineffiziente Ressourcennutzung** — das ergab der Flexera State of the Cloud Report 2024. Nach über 40 Migrationen in große Unternehmen weiß ich: Die Wahl des falschen Cloud-Providers kostet Millionen.

In diesem Artikel vergleiche ich AWS vs Azure vs Google Cloud pricing systematisch. Ich zeige konkrete Preismodelle, versteckte Kostenfallen und eine Entscheidungsmatrix, die CTOs und FinOps-Teams seit Jahren nutzen.

Warum Cloud-Kosten 2025 geschäftskritisch sind

Die Cloud-Migration ist abgeschlossen. Die Rechnung kommt. Laut Gartner werden globale Cloud-Ausgaben 2025 678 Milliarden US-Dollar überschreiten. Für die meisten Unternehmen bedeutet das: Der monatliche Cloud-Budget übersteigt bald die gesamte frühere On-Premises-IT-Infrastruktur.

Das Problem ist nicht die Cloud selbst. Das Problem ist die fehlende Transparenz. AWS bietet über 200 Services. Azure über 250. Google Cloud Platform (GCP) fokussiert sich auf 100+ Kernprodukte. Jeder Anbieter kombiniert On-Demand-Preise, Reserved Instances, Savings Plans, Spot-Instanzen und Commit-Based-Modelle — ein Pricing-Labyrinth für sich.

Mein Team und ich haben bei einer Finanzdienstleistung gesehen, wie eine 50-köpfige Abteilung monatlich 180.000 Euro für Cloud-Ressourcen ausgab, die nachts und am Wochenende zu 70 % brachlagen. Nach einem drei Monate dauernden Optimierungsprojekt — ausschließlich durch Right-Sizing und Scheduler-Automatisierung — sanken die Kosten auf 67.000 Euro pro Monat.

Die Quintessenz: Cloud-Kosten sind verhandelbar, optimierbar und vorhersehbar — wenn man weiß, wie.

AWS vs Azure vs Google Cloud: Detaillierter Preisvergleich 2025

Preismodelle im Vergleich

Jeder Cloud-Provider verwendet unterschiedliche Mechanismen zur Kostenoptimierung. Hier die Kernunterschiede:

Kriterium AWS Azure Google Cloud
On-Demand Basis EC2, S3 Standard Virtual Machines, Blob Storage Compute Engine, Cloud Storage
Commit-Rabatte Reserved Instances (1-3 Jahre) Reserved VMs (1-3 Jahre) Committed Use Discounts (1-3 Jahre)
Flexible Savings Savings Plans (Compute, EC2) Azure Savings Plans Committed Use mit NBD
Spot-/Preemptible Spot Instances (bis 90% Rabatt) Spot VMs (bis 90% Rabatt) Preemptible VMs (bis 80% Rabatt)
Free Tier 12 Monate begrenzt 12 Monate + Always Free Always Free (ohne Zeitlimit)

Compute-Kosten: Der Kernvergleich

Für Produktions-Workloads sind Compute-Instanzen der größte Kostenfaktor. Hier die aktuellen On-Demand-Preise für vergleichbare Instanztypen in der Region Frankfurt (eu-central-1):

Instanzklasse AWS (USD/hr) Azure (USD/hr) GCP (USD/hr)
Small (2 vCPU, 4 GB RAM) 0,092 0,095 0,087
Medium (4 vCPU, 16 GB RAM) 0,192 0,198 0,184
Large (8 vCPU, 32 GB RAM) 0,384 0,396 0,368
XL (16 vCPU, 64 GB RAM) 0,768 0,792 0,736

Analyse: Google Cloud liegt bei Compute-Preisen konsistent 5-8 % unter AWS und Azure. Das ist kein Zufall — GCP nutzt eigene T2A- und C2-Instanzen mit Custom-Silicon, was die Kosten senkt. AWS bleibt bei Intel- und AMD-basierten Instanzen und bietet dafür Breite.

Speicherpreise im Detail

Object Storage ist für die meisten Unternehmen ebenfalls ein kritischer Faktor:

Storage-Klasse AWS S3 Azure Blob Google Cloud Storage
Standard (pro GB/Monat) 0,023 USD 0,0184 USD 0,020 USD
Infrequent Access 0,0125 USD 0,01 USD 0,01 USD
Glacier (pro GB) 0,004 USD 0,00099 USD 0,004 USD
Outbound Traffic (pro GB) 0,09 USD 0,087 USD 0,08 USD

Azure bietet hier die günstigsten Standard-Tarife. Für Data Lakes mit Tiering-Strategie wird Azure Blob Storage zur starken Option, besonders mit der Cool-Tier-Preisgestaltung.

Versteckte Kosten, die Providers nicht betonen

1. Daten-Transfer-Kosten: Das größte Versteckpotenzial liegt im Data Egress. AWS berechnet 0,09 USD pro GB für Daten, die das Internet verlassen. Bei 10 TB monatlich sind das 900 USD — nur für Outbound-Traffic.

2. API-Aufrufe: S3 kostet 0,005 USD pro 1.000 GET-Anfragen. Bei Microservices-Architekturen mit hunderten Requests pro Sekunde summieren sich diese Kosten schnell auf Tausende Euro monatlich.

3. Availability-Zone-Transfers: Daten zwischen AZs in der gleichen Region kosten bei AWS 0,01 USD pro GB. Multi-AZ-Deployments werden so zum Kostenfaktor.

4. NAT Gateway: AWS berechnet 0,045 USD pro GB verarbeitete Daten durch NAT Gateway. Kubernetes-Pods in privaten Subnets generieren hier unerwartete Kosten.

Decision Framework: Wann welcher Provider?

Nach meiner Erfahrung mit Enterprise-Migrationen empfehle ich dieses Framework:

Wähle AWS wenn:

  • Du eine etablierte Java/Python-Enterprise-Landschaft hast (EC2, RDS, Lambda)
  • Du auf das größte Service-Ökosystem angewiesen bist
  • Du Security-Compliance für SOC2, PCI-DSS brauchst
  • Du已有AWS-Expertise im Team hast

Wähle Azure wenn:

  • Du Microsoft 365 und Active Directory nutzt
  • Du Windows-basierte Workloads (SQL Server, .NET) betreibst
  • Du eine enge SAP-Integration brauchst
  • Du im Enterprise-Hybrid-Cloud-Bereich arbeitest

Wähle Google Cloud wenn:

  • Du Machine Learning und Big Data priorisierst
  • Du Kubernetes-basiert arbeitest (GKE ist führend)
  • Du maximale Compute-Effizienz für Linux-Workloads brauchst
  • Du open-source-lastig unterwegs bist

Praktische Implementierung: Cloud-Kosten senken in 5 Schritten

Schritt 1: Visibility schaffen mit nativen Tools

Ohne Messbarkeit keine Optimierung. Jeder Provider bietet Cost-Management-Tools:

# AWS Cost Explorer aktivieren via CLI
aws ce get-cost-and-usage \
  --time-period Start=2025-01-01,End=2025-02-01 \
  --granularity MONTHLY \
  --metrics "UnblendedCost"

# Azure Cost Management API
az costmanagement query \
  --type ActualCost \
  --time-period-type MonthToDate

# GCP Cost Breakdown
gcloud billing budgets list

Empfehlung: Nutze Terraform zur zentralen Verwaltung aller Cloud-Ressourcen. Ohne Infrastructure-as-Code gibt es keine Kostentransparenz:

# Terraform-Beispiel für kosteneffiziente EC2-Instanz
resource "aws_instance" "web_server" {
  ami           = "ami-0c55b159cbfafe1f0"
  instance_type = "t3.medium"  # Right-Sizing statt t3.large
  
  # Cost Optimization: Schedule-based autoscaling
  lifecycle {
    create_before_destroy = true
  }
}

Schritt 2: Right-Sizing implementieren

Der größte einzelne Hebel zur Kostensenkung. Laut Flexera 2024 nutzen 45 % der Unternehmen ihre Cloud-Ressourcen zu maximal 50 % aus.

Vorgehensweise:

  1. Exportiere alle EC2/VM-Instanzen nach CSV mit CPU- und Memory-Auslastung
  2. Identifiziere Instanzen mit <30 % durchschnittlicher Auslastung über 30 Tage
  3. Downgrade diese Instanzen um eine oder zwei Klassen
  4. Monitoriere 7 Tage auf Performance-Degradation
  5. Automatisiere mit AWS Auto Scaling oder Azure Scale Sets

Konkreter Fall: Ein Kunde aus dem E-Commerce reduzierte seine monatlichen Compute-Kosten von 45.000 auf 18.000 Euro durch Right-Sizing und Implementierung eines automatischen Schedulers, der Testumgebungen außerhalb der Geschäftszeiten herunterfuhr.

Schritt 3: Reserved Instances und Savings Plans strategisch einsetzen

Für stabile Baseline-Workloads sind Commit-basierte Modelle unverzichtbar:

Modell Möglicher Rabatt Flexibilität Bestes für
AWS Reserved Instances Bis 72 % Gering (Fixed AZ, Instance Type) Vorhersehbare Produktions-Workloads
AWS Savings Plans Bis 66 % Hoch (Compute, Instance-Familie) Gemischte Linux-Workloads
Azure Reserved VMs Bis 72 % Mittel Windows und SQL Server
GCP Committed Use Bis 57 % Mittel bis Hoch GKE-Cluster, vorhersagbare Compute

Praxis-Tipp: Kaufe Committed Use Discounts (CUDs) niemals ohne vollständige Nutzungsanalyse. Bei einem Healthcare-Kunden sah ich Reserved Instances für Workloads, die 6 Monate später abgeschaltet wurden — 180.000 USD verbrannt.

Schritt 4: Spot-Instanzen für batch- und faulttolerante Workloads

Für CI/CD-Pipelines, Hadoop-Cluster, ML-Training undRendering-Workloads sind Spot/Preemptible VMs ideal:

# Kubernetes Spot-Instanzen mit Karpenter (AWS)
apiVersion: karpenter.sh/v1alpha5
kind: Provisioner
metadata:
  name: spot
spec:
  requirements:
    - key: "karpenter.sh/capacity-type"
      operator: In
      values: ["spot"]
  limits:
    resources:
      cpu: 64
  provider:
    instanceTypes: ["m5.large", "m5.xlarge"]
  ttlSecondsAfterEmpty: 30

Warnung: Spot-Instanzen können jederzeit unterbrochen werden. Bei Datenbanken und Stateful-Services niemals nutzen. Kubernetes mit properber Pod Disruption Budgets und Checkpointing ist Pflicht.

Schritt 5: FinOps-Team-Struktur etablieren

Technische Optimierungen reichen nicht. Organisatorische Verankerung ist entscheidend:

Empfohlene Struktur:

  • FinOps Practitioner in jedem Development Team
  • Zentrale Cloud-Finance-Steuerung mit Budget-Verantwortung
  • Monatliche Cost-Review-Meetings mit Engineering Leads
  • Automatisierte Budget-Alerts bei 50 %, 80 %, 100 % Schwellenwerten

Die fünf größten Cloud-Kostenfehler

Fehler 1: Multi-Cloud ohne klare Strategie

Viele Unternehmen beginnen Multi-Cloud-Projekte, ohne die operativen Kosten zu kalkulieren. Jeder zusätzliche Cloud-Provider bedeutet:

  • Separate Cost-Management-Tools
  • Zusätzliche Identity- und Access-Management-Infrastruktur
  • Höhere Netzwerk-Kosten für Cross-Cloud-Kommunikation
  • Steigende Komplexität für Security-Audits

Lösung: Starte Single-Cloud, optimiere dort radikal. Multi-Cloud nur für Disaster Recovery oder when spezifische Services eines Providers unverzichtbar sind.

Fehler 2: Keine Daten-Tiering-Strategie

95 % der Unternehmen lagern alles in Standard-Tier Storage. AWS S3 Standard kostet 0,023 USD pro GB. Für Logs, Archivdaten und selten genutzte Dateien sollte Glacier oder S3 Intelligent-Tiering genutzt werden.

Konkreter Fall: Ein Media-Unternehmen speicherte 500 TB Marketing-Videos in S3 Standard — monatliche Kosten: 11.500 USD. Nach Migration zu S3 Glacier Deep Archive: 230 USD pro Monat.

Fehler 3: Ungenutzte Ressourcen werden nicht abgebaut

„Das räumen wir später auf" — der teuerste Satz im Cloud-Management. Orphaned Volumes, verwaiste Snapshots und vergessene Load Balancers kosten versteckt Millionen.

Lösung: Automatisiere die Bereinigung mit:

# AWS: Ungenutzte EBS-Volumes (>30 Tage unattached) finden und markieren
aws ec2 describe-volumes \
  --filters Name=status,Values=available \
  --query 'Volumes[].VolumeId'

# Löschung nach 7 Tagen Warning via Lambda

Fehler 4: Reserved Instances ohne Nutzungsanalyse kaufen

Das emotionale Buying von Cloud-Rabatten. „Die sind so günstig, die müssen wir kaufen" führt zu Fehlallokationen.

Regel: Kaufe niemals Reserved Instances für Workloads, die weniger als 70 % Utilisierung über 12 Monate haben. Savings Plans bieten mehr Flexibilität und sind in unklaren Situationen vorzuziehen.

Fehler 5: Netzwerk-Kosten ignorieren

Data Transfer ist der am meisten unterschätzte Kostenpunkt. Private Link vs. Public Endpoints, VPC-Peering vs. Transit Gateway, NAT Gateway vs. NAT Instance — jede Entscheidung hat Preisimplikationen.

Praxis-Tipp: Nutze für serviceübergreifende Kommunikation Private Link (AWS) / Private Endpoint (Azure) statt Public Endpoints. Spart nicht nur Sicherheitsrisiken, sondern auch Public-IP-Kosten und reduziert Data-Transfer-Gebühren.

Meine Empfehlungen für 2025

Nach 15 Jahren Cloud-Architektur und Hunderten von Implementierungen hier meine klaren Empfehlungen:

Für Startups und Scale-Ups: Starte mit Google Cloud. Die transparenten Preise, Always-Free-Tier ohne Zeitlimit und führenden Kubernetes-Tools (GKE Autopilot) machen GCP zur intelligenten Wahl für cloud-native Unternehmen mit begrenztem Budget.

Für etablierte Unternehmen mit Microsoft-Ökosystem: Azure bleibt die richtige Wahl. Die Integration mit Microsoft 365, Active Directory und Azure DevOps rechtfertigt den marginal höheren Preis durch reduzierte Komplexität und Administrative-Overhead.

Für technisch getriebene Unternehmen mit ML-Fokus: Google Cloud. Vertex AI, BigQuery und die Compute-Optimierungen machen GCP zur Wahl für datengetriebene Organisationen.

Für Unternehmen mit bestehender AWS-Landschaft: Wechsle nicht. Die Migrationskosten übersteigen die Einsparungen. Investiere stattdessen in FinOps-Kompetenz und Reserved-Instances-Strategien.

Unabhängig vom Provider: Implementiere Cloud Cost Management als kontinuierlichen Prozess, nicht als einmaliges Projekt. Die Cloud-Kosten steigen organisch — ohne aktives Management wachsen sie exponentiell.

Der wichtigste Rat: Kaufe keine Cloud-Ressourcen, bevor du nicht ein Cost-Management-Tool implementiert hast. Visibility kommt vor Optimization. Ohne Dashboard, das aktuelle Ausgaben zeigt, ist jede Optimierung ein Schuss ins Blaue.

Wöchentliche Cloud-Insights — kostenlos

Praktische Leitfäden zu Cloud-Kosten, Sicherheit und Strategie. Kein Spam.

Comments

Leave a comment