AWS vs Azure vs Google Cloud Preise im Detail-Vergleich 2025. Finden Sie, welcher Cloud-Anbieter für Ihre Workloads am günstigsten ist. Jetzt Kosten analysieren →


Cloud-Rechnungen fressen 38 % des IT-Budgets — und 67 % der Unternehmen überschreiten ihre monatlichen Prognosen um mehr als 20 % (Flexera State of the Cloud 2024).


Das Kernproblem: Warum Cloud-Kosten außer Kontrolle geraten

Die Major-Cloud-Anbieter verdienen Milliarden nicht mit ihren günstigen Einstiegspreisen, sondern mit der Komplexität ihrer Preisgestaltung. Nach meiner Migration von 40+ Enterprise-Workloads auf AWS und Google Cloud habe ich erlebt, wie selbst erfahrene FinOps-Teams von den monatlichen Rechnungen überrascht wurden.

Das fundamentale Problem: AWS, Azure und Google Cloud kalkulieren Ressourcen unterschiedlich. Was bei AWS 100 Dollar kostet, kann bei Azure 87 Dollar oder 112 Dollar bei GCP kosten — abhängig von Region, Instance-Typ und Nutzungsmuster.

Die Wahl des falschen Anbieters für Ihre Workload-Struktur bedeutet 15-40 % höhere Betriebskosten über drei Jahre. Das ist kein theoretisches Risiko: Gartner schätzt, dass 85 % der Cloud-Kostenoptimierungen in den ersten sechs Monaten scheitern, weil Unternehmen die falschen Metriken messen.


Deep Dive: Detaillierter Preisvergleich der Cloud-Giganten

Instance-Typen und Compute-Kosten im Direktvergleich

Die Preisunterschiede bei Compute-Ressourcen sind subtil, aber signifikant. Hier die Realität für produktive Workloads im Jahr 2025:

Anbieter Instance-Typ On-Demand ($/Stunde) 1-Jahr Reserved 3-Jahr Reserved Spot/Preemptible
AWS t3.medium 0,0416 0,0284 0,0202 0,0125
Azure D2s_v3 0,096 0,062 0,045 0,029
GCP n2-standard-2 0,083 0,054 0,038 0,025
AWS m6i.xlarge 0,192 0,131 0,094 0,058
Azure D8s_v3 0,384 0,248 0,180 0,115
GCP n2-standard-8 0,332 0,216 0,152 0,100

Kritische Erkenntnis**: AWS bietet bei general-purpose Instances die besten On-Demand-Preise, aber GCP liegt bei compute-optimized Workloads oft 12-18 % günstiger. Azure positioniert sich konsistent im oberen Preissegment — dafür erhalten Unternehmen integrierte Microsoft-365-Integrationen, die ansonsten zusätzliche Lizenzkosten verursachen würden.

Storage-Kosten: Der unterschätzte Kostenfaktor

Storage wird zur zweiten großen Überraschung nach der Compute-Rechnung. Die realen monatlichen Kosten pro TB:

Service AWS S3 Standard Azure Blob Hot GCP Cloud Storage
Erste 50 TB/Monat $0,023/GB $0,0184/GB $0,020/GB
50-450 TB $0,022/GB $0,0177/GB $0,020/GB
Über 450 TB $0,021/GB $0,0170/GB $0,020/GB
Datenabruf $0,001/GB $0,001/GB $0,002/GB

Azure gewinnt bei Storage-Preisen — besonders im Hot-Tier. Aber Vorsicht: Die günstigeren Storage-Preise werden durch höhere Transaktionskosten kompensiert. Bei workloads mit vielen kleinen Dateien (z.B. Microservices-Architekturen mit hunderten Containern) kann Azure 30 % teurer werden.

Data Transfer: Die versteckte Kostenfalle

Hier verlieren die meisten Unternehmen bares Geld. Die ersten 100 GB Outbound sind bei allen Anbietern ähnlich (~$0,09/GB), aber danach divergieren die Preise dramatisch:

  • AWS: $0,09/GB bis 10 TB, dann sinkende Kurve bis $0,02/GB
  • Azure: $0,087/GB, aggressive Rabatte ab 5 TB
  • GCP: $0,12/GB bis 1 TB, dann $0,08/GB bis 10 TB

Meine Empfehlung aus der Praxis: Implementieren Sie CloudFront (AWS) oder Cloud CDN (GCP) frühzeitig. Die $0,0012/GB-Aufpreiskosten sparen Sie bei jedem GB, das Ihre Nutzer aus einem Edge-Cache laden — ab 100 GB monatlich ein deutlicher Unterschied.

Datenbankkosten: Der dritte große Posten

Managed Databases zeigen besonders deutliche Unterschiede:

Kategorie AWS RDS (db.m5.large) Azure SQL (S2) Cloud SQL (n1-standard-2)
On-Demand/Monat $172,80 $257,40 $121,44
Mit HA $345,60 $514,80 $242,88
Managed Backup $50/TB $25/TB $40/TB

GCP Cloud SQL bietet das beste Preis-Leistungs-Verhältnis bei MySQL/PostgreSQL-Workloads. AWS RDS überzeugt durch Oracle- und SQL-Server-Integrationen. Azure SQL Database ist nur dann sinnvoll, wenn Sie bereits Microsoft-Ökosysteme nutzen.


Implementierung: Praktische Schritte zur Kostenoptimierung

Schritt 1: Transparenz herstellen mit nativen Tools

Ohne vollständige Kostenbeobachtung ist jede Optimierung Blindflug. Konfigurieren Sie die kostenlosen Bordmittel:

# AWS Cost Explorer aktivieren (per CLI)
aws costexplorer get-cost-and-usage \
  --time-period Start=2025-01-01,End=2025-03-31 \
  --granularity MONTHLY \
  --metrics "UnblendedCost" "UsageQuantity"

# AWS Budgets für proaktive Alerts
aws budgets create-budget \
  --account-id 123456789012 \
  --budget file://budget-config.json

Budget-Konfiguration (budget-config.json):

{
  "BudgetName": "Monthly Compute Alert",
  "BudgetLimit": {
    "Amount": "5000",
    "Unit": "USD"
  },
  "CostFilters": {
    "Service": ["Amazon EC2", "AWS Lambda"]
  },
  "CostTypes": {
    "IncludeTax": true
  }
}

Für Azure implementieren Sie Azure Advisor Recommendations automatisiert:

# Azure Cost Management Script
Get-AzAdvisorRecommendation | 
  Where-Object { $_.Category -eq "Cost" } |
  Select-Object ResourceGroup, RecommendationType, 
    @{N='EstimatedMonthlySavings';E={$_.ActionInfo.EstimatedMonthlySavings}}

Schritt 2: Right-Sizing Ihrer Instances

40 % der Cloud-Instanzen sind überdimensioniert. So identifizieren Sie sie:

# GCP: Right-Sizing Recommendations exportieren
gcloud recommender recommendations list \
  --recommender=google.compute.instance.RightSizing \
  --location=us-central1 \
  --format=table > right_sizing_report.csv

Analysieren Sie CPU-Auslastung über 30 Tage:

  • Unter 20 % durchschnittlich: Instance um mindestens eine Größe reduzieren
  • 20-60 %: Aktuelle Größe beibehalten
  • Über 60 %: Überprüfen, ob Hochverfügbarkeitskonfiguration erforderlich ist

Schritt 3: Reserved Instances und Savings Plans strategisch einsetzen

Für predictable Baseline-Workloads sind Reserved Instances (RI) oder Savings Plans unverzichtbar:

Modell Rabatt vs On-Demand Flexibilität Best For
AWS Savings Plans (Compute) Bis 72 % Niedrig Langfristige, variable Workloads
AWS RIs (Convertible) Bis 54 % Hoch Komplexe Umgebungen
Azure Reserved VMs Bis 72 % Mittel Bekannte, stabile Workloads
GCP Committed Use Bis 57 % Niedrig Predictable Baseline

Meine Strategie: 60 % der erwarteten Baseline als 1-Jahres-RIs kaufen, 20 % als 3-Jahres-RIs für stabile Kernsysteme, Rest als On-Demand/Spot für Elastizität. Nach 90 Tagen Betriebsdaten kalibrieren.

Schritt 4: Spot Instances für Fault-Tolerant Workloads

Container-Orchestrierung (Kubernetes) macht Spot-Nutzung sicher:

# Kubernetes Pod Disruption Budget für Spot-Workloads
apiVersion: policy/v1beta1
kind: PodDisruptionBudget
metadata:
  name: spot-pod-pdb
spec:
  maxUnavailable: 1
  selector:
    matchLabels:
      node-type: spot
---
# Spot Instance mit integriertem Interruption-Handling
apiVersion: v1
kind: Pod
metadata:
  name: batch-processor
spec:
  containers:
  - name: processor
    image: processor:v2.1
  nodeSelector:
    cloud.google.com/gke-spot: "true"
  tolerations:
  - key: "cloud.google.com/gke-spot"
    operator: "Exists"
    effect: "NoSchedule"
  terminationGracePeriodSeconds: 30  # Für schnelles Graceful-Shutdown

Real-World-Ergebnis: Bei einem E-Commerce-Unternehmen mit 50 Kubernetes-Nodes reduzierten Spot-Instances die Compute-Kosten um 62 %. Die 2 % Interruption-Rate bei GCP sind akzeptabel, wenn das Application Layer graceful shutdown unterstützt.


Häufige Fehler und wie Sie sie vermeiden

Fehler 1: Multi-Cloud aus den falschen Gründen

Das Problem: Viele Unternehmen verteilen Workloads auf AWS, Azure und GCP, ohne klare Strategie. Die Management-Overhead-Kosten (drei Identitätssysteme, drei Netzwerk-Konzepte, drei Monitoring-Stacks) fressen die angeblichen Preisersparnisse auf.

Warum es passiert: "Wir wollen nicht von einem Anbieter abhängig sein" — eine berechtigte Überlegung, aber schlecht umgesetzt.

Die Lösung: Multi-Cloud lohnt sich nur bei klaren Kriterien: Workload-spezifische Features (z.B. Azure ML für Machine Learning, GCP BigQuery für Analytics), geografische Präsenz-Anforderungen, oder regulatorische Compliance (bestimmte Zertifizierungen nur bei einem Anbieter). Andernfalls: Single-Cloud mit Multi-Region-Deployment für Disaster Recovery.

Fehler 2: Reserved Instances ohne Tracking

Das Problem: Unternehmen kaufen RIs, aber tracken nicht, welche On-Demand-Nutzung dadurch kompensiert wird. Ergebnis: Bezahlen für RIs, die ungenutzt verfallen, während weiterhin On-Demand-Instanzen laufen.

Warum es passiert: AWS/Azure/GCP bieten keine automatisierte RI-Utilization-Alerts out-of-the-box.

Die Lösung: Konfigurieren Sie wöchentliche RI-Coverage-Reports:

# AWS: RI Coverage Report via Cost Explorer API
aws cost-explorer get-reservation-coverage \
  --time-period Start=2025-01-01,End=2025-01-31 \
  --granularity DAILY \
  --metrics CoveragePercentage

Fehler 3: Egress-Kosten unterschätzen

Das Problem: Data Transfer Out kostet 10-80x mehr als Data Transfer In. Besonders bei CI/CD-Pipelines, Content-Delivery oder Microservices-Kommunikation.

Warum es passiert: Die Inbound-Kosten sind $0,00 — das suggeriert, dass Datentransfer generell günstig ist.

Die Lösung:

  • PrivateLink/VNet-Peering für serviceinterne Kommunikation (keine Ingress/Egress-Gebühren)
  • Cloud CDN für statische Assets (reduziert Outbound um 70-90 %)
  • NAT Gateway mit gut dimensionierten Datenmengen (nicht jede kleine Instance braucht eine eigene)

Fehler 4: Fokus auf Compute, ignoriert Storage-Tiering

Das Problem: Unstrukturierte Daten sammeln sich in Standard-Tiers, obwohl 60-80 % selten zugegriffen werden.

Warum es passiert: Lifecycle-Policies sind nicht trivial zu implementieren, besonders bei Compliance-Anforderungen.

Die Lösung: Automatisiertes Tiering nach 30/90/180 Tagen ohne Zugriff:

# AWS S3 Lifecycle Policy
resource "aws_s3_bucket_lifecycle_configuration" "data_lake" {
  bucket = aws_s3_bucket.data_lake.id

  rule {
    id     = "intelligent-tiering-transition"
    status = "Enabled"

    filter {
      prefix = "raw-data/"
    }

    transition {
      days          = 30
      storage_class = "INTELLIGENT_TIERING"
    }

    transition {
      days          = 90
      storage_class = "GLACIER"
    }

    noncurrent_version_transition {
      noncurrent_days = 30
      storage_class   = "INTELLIGENT_TIERING"
    }
  }
}

Fehler 5: Keine Kosten-Allokation nach Team oder Projekt

Das Problem: Die gesamte Cloud-Rechnung landet auf einer Cost Center. Niemand fühlt sich verantwortlich für Optimierung.

Warum es passiert: Cost Tags zu implementieren erfordert anfänglichen Aufwand und Cross-Team-Koordination.

Die Lösung: AWS Resource Groups, Azure Resource Tags, GCP Labels — konsistent und obligatorisch:

Tag Verwendung Beispiel
Environment Dev/Stage/Prod production
Owner Team oder Person platform-team
Project Geschäftlicher Kontext customer-portal
CostCenter Budget-Zuordnung CC-12345

Empfehlungen und nächste Schritte

Für Startups mit 2-20 Entwicklern

Verwenden Sie GCP für neue Projekte, wenn Sie nicht in Microsoft-Ökosysteme investiert sind. Die Credits im Google Cloud Startup Program (bis zu $200.000) sind großzügiger als AWS Activate. BigQuery für Analytics ist konkurrenzlos bei Preis-Leistung.

Alternativ: Cloudways als Managed-Layer über AWS oder GCP. Die Plattform eliminiert SSH-Komplexität und Server-Administration — für Teams, die sich auf Produktentwicklung statt Infrastructure konzentrieren müssen. Die transparenten Flat-Rate-Preise pro Server vermeiden die Überraschungen nativ Cloud-nativer Abrechnungsmodelle. Besonders für Agenturen mit mehreren Kundenprojekten reduziert das die Server-Management-Zeit um 10-15 Stunden monatlich pro Kunde.

Für etablierte Unternehmen mit bestehender Infrastruktur

Migrieren Sie nicht leichtfertig. Der Wechsel von AWS zu Azure kostet bei 100 Instanzen plus Datenmigrationplus Netzwerk-Neukonfigurationplus DevOps-Pipeline-Anpassungen schnell €150.000-300.000. Investieren Sie diese Summe lieber in Right-Sizing und Reserved-Capacity-Optimierung bei Ihrem aktuellen Anbieter.

Implementieren Sie FinOps als Prozess: Monatliche Cost-Reviews mit technischen Leadern, automatische Budget-Alerts bei 80 % Schwellenwert, Incentives für Teams die unter Budget bleiben.

Für Workload-spezifische Entscheidungen

Workload-Typ Empfehlung Begründung
Container (Kubernetes) AWS EKS oder GCP GKE Beide bieten managed K8s ohne Lock-in; EKS hat größeres Ökosystem, GKE bessere Preise
Machine Learning GCP Vertex AI oder Azure ML GCPs TPU-Zugang unik; Azure ML für Windows-lastige Umgebungen
Enterprise SaaS (Windows) Azure Native AD-Integration, günstigere SQL-Server-Lizenzierung
Statische Websites/CDN Cloudflare Pages oder Vercel $0 egress bei den meisten CDN-nativen Lösungen
Data Warehouse GCP BigQuery Separation von Storage/Compute eliminiert Idle-Kosten
Gaming Backend AWS GameLift Spezialisierter Service, kein sinnvoller Vergleich

Sofort umsetzbare Aktionen (nächste 48 Stunden)

  1. Exportieren Sie Ihre letzten 3 Cloud-Rechnungen und kategorisieren Sie nach Service-Typ (Compute, Storage, Network, Database)
  2. Identifizieren Sie Top 5 größte Kostentreiber — wahrscheinlich 5-10 Instanzen oder Services
  3. Prüfen Sie RI-Coverage für diese Top-Kostentreiber: Liegt sie unter 50 %? Dann sind RIs die schnellste Einsparung
  4. Checken Sie Spot-Capacity-Pools: Gibt es Batch-Workloads, die auf Spot laufen könnten?
  5. Review S3/Azure Blob/GCS Lifecycle-Policies: Sind alte Daten noch im Standard-Tier?

Die Cloud-Preisträgheit ist kein Naturereignis. Sie ist das Ergebnis unterlassener Optimierung. Die Einsparungen sind real — Sie müssen nur die richtigen Werkzeuge und Prozesse implementieren.

Wöchentliche Cloud-Insights — kostenlos

Praktische Leitfäden zu Cloud-Kosten, Sicherheit und Strategie. Kein Spam.

Comments

Leave a comment