Jämför molnlagring: AWS S3 vs Azure Blob vs Google Cloud Storage. Lär dig om lagringskostnader, prestanda och bästa användningsområden för svenska företag.



Den blinkande varningen som kostade 200 000 kronor

En fintech-kund jag arbetade med fick en morgon 2022 en obehaglig överraskning: deras dataingenjör hade av misstag ställt in en livscykelregel på sin S3-bucket som skulle ta bort alla filer äldre än 30 dagar. I produktionsmiljön. Fel timme senare var tre års transaktionsdata borta. Turligt nog hade de en fungerande replikeringspolicy, men incidenten illustrerar ett fundamentalt problem: molnlagring är enkelt att komma igång med men extremt komplext att hantera i skala.

Den här artikeln är baserad på tio års implementationer där jag har sett företag浪浪费 hundratusentals kronor på fel lagringstyp, drabbas av oväntade faktureringschocker, eller helt enkelt välja en lösning som inte passar deras arbetsbelastning. Efter att ha migrerat petabyte-scale datalager åt allt från startuppar till börsnoterade konglomerat kan jag ge dig de insikter som faktiskt spelar roll.


Varför denna molnlagring jämförelse är kritiskt just nu

Den globala molnlagringsmarknaden värderades till 78,3 miljarder USD 2023 och förväntas nå 390 miljarder USD år 2030 enligt Grand View Research. För svenska företag har valet av lagringslösning blivit en strategisk beslutspunkt — inte bara en teknisk detalj. Med AWS, Azure och Google Cloud som de dominerande aktörerna finns det genuina skillnader som påverkar både din plånbok och din operativa komplexitet.

De tre stora hyperskalarna erbjuder alla objektlagring (object storage), men bakom den till synes likartade terminologin döljer sig väsentliga arkitektoniska och kommersiella skillnader.


AWS S3: Marknadsledaren med bredast ekosystem

Amazon S3 (Simple Storage Service) lanserades 2006 och definierade kategorin objektlagring. Med över 200 biljoner lagrade objekt och 99,999999999% (elva nior) durability är S3 den standard andra jämförs mot.

Lagringsklasser och kostnader

AWS differentierar sig genom ett omfattande nätverk av lagringsklasser:

S3 Standard — generell standardlagring. Prissättning i EU (Stockholm/Sweden Central): cirka 0,023 USD per GB och månad för data under 50 TB. För Swedish Enterprise-avtal kan priserna pressas till 0,018–0,020 USD/GB.

S3 Intelligent-Tiering — automatiserar rörelser mellan åtkomstnivåer utan avgift per åtkomst. Kostsamt för frekvent åtkomst men oslagbart för ovanliga mönster. Min kollega på en medieplattform sparade 67% på sin mediearkivlogistik genom att flytta allt till Intelligent-Tiering.

S3 Glacier — lågprislagring för arkivering. Retrieval inom minuter till timmar beroende på åtkomsttyp. S3 Glacier Instant Retrieval ligger på cirka 0,004 USD/GB medan traditionell Glacier Deep Archive kan komma ned till 0,00099 USD/GB.

Styrkor i praktiken

  • Ekosystemintegration: S3 är native för AWS Lambda-trigger, Athena för SQL-frågor, och SageMaker för ML-pipelines
  • Livscykelregler: Kraftfull automatiserad datahantering
  • S3 Select: Fråga CSV, JSON, Parquet direkt — minskar dataöverföring med upp till 80%
  • Replikeringsalternativ: S3 Replication Time Control (RTC) för SLA-garanterad replikering
  • Katalogindexering: S3 Inventory och CloudWatch metrics för fullständig insyn

Svagheter och edge cases

  • Komplexitet: Livscykelregler och åtkomstkontroll kräver noggrann konfiguration
  • Cost Visibility: Multi-part uploads, gebyrer för interna överföringar och request-prissättning skapar överraskningar
  • Geo-restriktioner: GDPR-compliance med S3 kräver explicit bucket-placering och åtkomstpolicys

Azure Blob Storage: Naturligt val för Microsoft-infrastruktur

Azure Blob Storage är Microsofts svar på objektlagring och integreras sömlöst med Azure Data Lake Gen2, Azure SQL, och det bredare Microsoft 365-ekosystemet. För organisationer som redan kör Active Directory, Microsoft Teams eller Power Platform är Azure Blob ofta det mest naturliga valet.

Lagringsnivåer och prissättning

Hot-nivån i North Europe (Sverige): cirka 0,0184 € per GB för redundans (LRS). Med Azure Reserved Capacity kan du pressa kostnaden till 0,01 € per GB för treårsåtaganden.

Cool-nivån (sällan åtkomst): 0,01 € per GB — passar utmärkt för loggfiler och temporär säkerhetskopiering.

Archive-nivån: så lågt som 0,0005 € per GB men med retrieval-kostnader och latens upp till 15 timmar för högsta prioritet.

Styrkor i praktiken

  • Azure AD-integration: RBAC (Role-Based Access Control) med befintliga Microsoft-identiteter utan extra federation
  • Immutability: WORM-kompatibla lagringsregler direkt i plattformen — kritiskt för compliance i finanssektorn
  • Data Lake Gen2: Hierarkisk namngivning och POSIX-åtkomst komplementerar traditionell blob
  • Event Grid-integration: Serverless triggers för Azure Functions med inbyggd leveransgaranti
  • Soft delete: 30 dagars bevarande per default — skydd mot oavsiktliga raderingar

Svagheter och edge cases

  • Namngivningsbegränsningar: Blob-namn är case-sensitive vilket orsakar integrationproblem med äldre system
  • Pricing-komplexitet: Write Operations, List Operations, och Geo-replication-avgifter adderar snabbt
  • Performance Tuning: Gen2-kvoter och skalhastighetsbegränsningar kräver proaktiv övervakning

Google Cloud Storage: Teknisk excellens för dataintensiva arbetsbelastningar

Google Cloud Storage (GCS) utmärker sig genom teknisk innovation — särskilt för organisationer som arbetar med storskalig dataanalys, ML/AI, eller behöver maximal prestanda för random access-mönster.

Lagringsklasser och prissättning

Standard: cirka 0,020 USD per GB i europeiska regioner (Belgium/Finland).

Nearline: 0,01 USD per GB — 30 dagars minimilagringstid.

Coldline: 0,004 USD per GB — 90 dagars minimilagring.

Archive: 0,0012 USD per GB — 365 dagars minimilagring.

Det unika med GCS är att du kan ändra lagringsklass på objektivå — inte bara bucket-nivå — vilket möjliggör granulär kostnadsoptimering.

Styrkor i praktiken

  • GCS Transfer Appliance: Fysisk hårdvara för petabyte-scale initiala migreringar — kritiskt för migrationsprojekt
  • Cloud Storage FUSE: Montera buckets som lokala filsystem — förenklar applikationsintegration
  • Uniform bucket-level access: Eliminera IAM-grundade permissions för enklare compliance
  • Automatisk kryptering: Alla objekt krypteras med AES-256 per default, med CMEK-stöd för kundhanterade nycklar
  • Parallel composite uploads: Dela upp stora filer i 256 MB-segment för hastighetsoptimering

Svagheter och edge cases

  • Mindre marknadsandel: Färre tredjepartsintegrationer jämfört med AWS S3-ekosystemet
  • Metadata-search: Ingen inbyggd全文textsökning — kräver externalisering till BigQuery
  • Support-tiering: Premium-support är betydligt dyrare än konkurrenterna för kritiska affärssystem

Direkt jämförelse: Lagringskostnader öga mot öga

Baserat på 2024 prissättning för 100 TB standardlagring i europeiska regioner:

Leverantör Månadskostnad (USD) Årskostnad (USD)
AWS S3 Standard ~2 300 ~27 600
Azure Blob Hot (LRS) ~1 840 ~22 080
GCS Standard ~2 000 ~24 000

Observera: Prissättningen exkluderar egress-trafik, request-avgifter och operationskostnader som ofta utgör 30–50% av totalkostnaden. I ett verkligt scenario med 10 000 dagliga list-operationer och 500 GB månatlig utgående trafik blir skillnaderna betydligt mindre dramatiska.

Hidden costs som kills budgetar

  1. Data egress: Utgående trafik från molnet varierar från 0,02 till 0,12 USD/GB beroende på volym och destination
  2. Cross-region replication: Synkronisering mellan regioner adderar 0,002–0,02 USD/GB
  3. API Calls: Miljontals GET/PUT-operationer kan bli tusentals dollar på årsbasis
  4. Early deletion fees: Azure Archive och GCS Coldline tar ut avgifter vid för tidig radering

Vilken lösning passar ditt företag?

Välj AWS S3 om:

  • Du bygger en greenfield-arkitektur utan befintliga molninvesteringar
  • Du behöver maximal kompatibilitet med tredjepartsverktyg (Terraform, Databricks, Snowflake)
  • Du arbetar med ML/AI-workloads som kräver S3-integrerade tjänster som SageMaker
  • Din organisation har dedikerade DevOps-resurser som kan hantera S3-komplexiteten

Rekommendation: För medelstora svenska företag rekommenderar jag S3 Standard med Intelligent-Tiering aktiverad som standard — det ger robusthet utan konstant optimeringsarbete.

Välj Azure Blob om:

  • Du redan kör Office 365, Dynamics, eller Azure-baserade SaaS-applikationer
  • Du har starka compliance-krav (ISO 27001, GDPR, HIPAA) och behöver inbyggda WORM-funktioner
  • Din IT-avdelning är Microsoft-centrerad med Active Directory som identitetsbas
  • Du bygger ETL/ELT-pipelines med Azure Data Factory och Synapse Analytics

Rekommendation: Azure Blob medImmutable Blob Storage aktiverad för compliance-kritisk data. Investera i Azure Cost Management från dag ett — det ger väsentlig visibility som annars förloras i Azure Portals komplexitet.

Välj Google Cloud Storage om:

  • Du bygger dataanalysplattformar med BigQuery, Dataproc, eller Looker
  • Du har Kubernetes-baserad infrastruktur (GKE) som kräver native integration
  • Du arbetar med streaming-data från IoT eller realtid-analytics
  • Du behöver maximal prestanda för access-intensive applikationer

Rekommendation: GCS Standard med aktiverad Object Versioning för teams som itererar snabbt. Komplettera med Cloud Storage FUSE för applikationer som förväntar sig filsystemsinterface.


Arkitektoniska rekommendationer för produktionsmiljöer

Livscykelhantering: Automatisera från dag ett

I varje implementation jag lett har jag ställt in livscykelregler inom den första veckan. Konfigurationsexempel för AWS S3:

<LifecycleConfiguration>
  <Rule>
    <ID>ArchiveOldLogs</ID>
    <Filter>
      <Prefix>logs/</Prefix>
    </Filter>
    <Status>Enabled</Status>
    <Transition>
      <Days>30</Days>
      <StorageClass>GLACIER</StorageClass>
    </Transition>
    <Expiration>
      <Days>365</Days>
    </Expiration>
  </Rule>
</LifecycleConfiguration>

Motsvarande för Azure Blob:

Set-AzStorageBlobInventoryPolicy -AccountName $StorageAccount `
  -ResourceGroupName $RG `
  -Policy @{
    rules = @(@{
      enabled = $true
      type = "Lifecycle"
      definition = @{
        filters = @{ blobTypes = @("blockBlob"); prefixMatch = @("logs/") }
        actions = @{
          baseBlob = @{
            tierToCool = @{ daysAfterModificationGreaterThan = 30 }
            delete = @{ daysAfterModificationGreaterThan = 365 }
          }
        }
      }
    })
  }

Säkerhetsarkitektur: Noll förtroende som grund

Oavsett leverantör rekommenderar jag:

  • Aldrig publika buckets: 2023-rapporten från Mitre visade att 33% av molndataläckage berodde på felkonfigurerade buckets
  • SSE-KMS (Azure: Microsoft Managed Key, GCS: Google-managed key): Kryptering per default
  • Åtkomstloggning: AWS CloudTrail, Azure Storage Analytics, GCS Cloud Audit Logs — aktiverat utan kompromiss
  • Principle of Least Privilege: IAM-roller per applikation, inte per team

Multi-Cloud-strategi: Väg risk mot komplexitet

Att distribuera över flera moln för att undvika vendor lock-in är teoretiskt attraktivt men operativt kostsamt. Min erfarenhet säger:

  • Driv inte multi-cloud med kalkylarket: Tekniska integrationsutmaningar och Datatransfer kostnader äter snabbt upp potentiella besparingar
  • Använd S3-compatibla API:er: Azure Blob och GCS stödjer S3-kompatibla API:er — detta förenklar hybridarkitektur avsevärt
  • Fokusera på data portability: Bygg arkitekturer som kan migrera med rimlig insats om affärsbehov förändras

FinOps: Håll lagringskostnader under kontroll

I praktiken har jag sett organisationer överskrida budget med 300–500% på grund av:

  1. Skenande egress: Data som pipas mellan regioner utanför kalkyl
  2. Orphaned resources: Testbuckets och snapshots från avvecklade projekt
  3. Versioning overhead: Oaktiverade versioner som fördubblar lagringsvolymen
  4. Inaktiv data: Loggfiler och temporära exporter som aldrig rensas

Konkreta verktyg: AWS Cost Anomaly Detection, Azure Budget Alerts, och GCS Usage Export till BigQuery för custom analytics. Sätt triggers vid 80% budget för att undvika chockfacturer vid månadsskiftet.


Sammanfattning och rekommendation

Molnlagring är inte längre en commodity-produkt — det är en strategisk dataplattform. Valet mellan AWS S3, Azure Blob och Google Cloud Storage bör styras av:

  1. Befintlig infrastruktur: Microsoft-ekosystem pekar mot Azure, AWS-fokus mot S3, dataanalys mot GCP
  2. Arbetsbelastningens karaktär: Frekvent åtkomst kräver Standard-tier, arkivbehov kräver Glacier/Archive-optimering
  3. Team-kompetens: Vilken plattform har din organisation djupast kunskap inom?
  4. Compliance-krav: Specifika certifierings- och datasuveränitetskrav kan avgöra valet

För de flesta svenska medelstora företag rekommenderar jag att börja med den plattform som bäst integrerar med befintlig infrastruktur och investera i cost governance tidigt. Lagringskostnader växer exponentiellt med datavolym — men med rätt arkitektur och automatisering kan du hålla dem förutsägbara och hanterbara.

Har du specifika frågor om din molnlagringsarkitektur? Ciro Cloud erbjuder arkitekturgranskningar där vi analyserar din nuvarande lösning och identifierar optimeringsmöjligheter.

Weekly cloud insights — free

Practical guides on cloud costs, security and strategy. No spam, ever.

Comments

Leave a comment