💸 FinOps

Cloud Cost Auditor prompts

Prompts pour décortiquer une facture AWS/GCP/Azure overshoot, repérer les leak operationnel les plus chers, et générer un plan d'optimisation FinOps en moins d'une heure — sans payer un consultant à 1200€/jour.

Tested 2026-05 Claude 4.7 OpusGPT-5 #finops#aws#cost#cloud
Honest note — Ces prompts t'aident à formuler un audit FinOps — mais ils ne remplacent pas le contexte business interne. La vraie décision (couper EC2 vs garder pour QA) demande de connaître le projet sous-jacent. Utilise ces prompts comme tracteur d'investigation, pas comme oracle.

Prompts in this set

  1. 1. Décoder une facture AWS / GCP / Azure mensuelle
  2. 2. Rightsizing EC2 / Compute Engine à partir de métriques CloudWatch
  3. 3. Audit S3 / Cloud Storage / Blob Storage — lifecycle policy generator
  4. 4. Decision matrix : On-Demand vs Reserved Instance vs Savings Plan vs Spot
  5. 5. Diagnostiquer un pic de Data Transfer Out (la facture cachée)

1. Décoder une facture AWS / GCP / Azure mensuelle

Quand ta facture cloud a doublé et tu veux comprendre OÙ part l'argent en 10 minutes.

Claude 4.7 Opus (2026-05)GPT-5 (2026-05)
Tu es un consultant FinOps senior. J'ai exporté ma facture <PROVIDER> du mois dernier au format CSV. Voici les 30 lignes les plus chères :

<COLLE_LE_CSV_OU_LISTE_LES_30_LIGNES>

Analyse en 5 sections :

1. **Top 3 services qui coûtent le plus** — pour chacun : nom du service, % de la facture totale, et l'usage typique correspondant.
2. **Lignes suspectes ou anormales** — repère ce qui semble disproportionné (ex: 8000$ d'EBS provisioning sans EC2 actif = volumes orphelins, ou Data Transfer Out > 30% de la facture = problème CDN/égress).
3. **Top 5 quick wins** — pour chaque ligne suspecte, donne-moi : (a) la cause probable, (b) l'action concrète (commande CLI ou clic console), (c) l'économie mensuelle estimée.
4. **Lignes 'normales' mais optimisables** — services bien utilisés mais qui pourraient passer en Reserved Instance / Savings Plan / Committed Use Discount. Estime le ROI.
5. **Une question de diagnostic** que je dois aller poser à l'équipe dev avant de prendre la moindre décision (ex: 'cet RDS de 500GB est-il vraiment utilisé en prod ou c'est un legacy ?').

Format : tableau pour 1-4, un seul bullet pour 5. Pas de préambule.
TipExporte le CSV via Cost Explorer (AWS) ou Cloud Billing > Reports (GCP). Garde les 30 lignes les plus chères par coût mensuel, pas par volume. Si tu as plusieurs comptes/projets, fait l'audit compte par compte d'abord.

2. Rightsizing EC2 / Compute Engine à partir de métriques CloudWatch

Tu as 50 VMs et tu veux savoir lesquelles sont sur-dimensionnées sans devoir auditer chacune à la main.

Claude 4.7 Opus (2026-05)GPT-5 (2026-05)
Tu es un consultant FinOps. Je te donne une liste de VMs (EC2 / Compute Engine / Azure VMs) avec leurs métriques d'utilisation moyenne sur les 30 derniers jours.

Format de mes données (CSV ou liste) :
Instance | Type | vCPU | RAM | CPU avg % | RAM avg % | Network in/out (GB) | Coût/mois

Mes VMs :
<COLLE_LES_DONNÉES>

Pour chacune, donne-moi en tableau :

1. **Verdict** : OK / À downsize / À supprimer / À investiguer
2. **Recommandation type d'instance** : si downsize, propose l'instance plus petite (ex: t3.large → t3.medium si CPU<20%)
3. **Économie estimée** : $/mois
4. **Risque** : faible / moyen / élevé (élevé = si CPU peak >80%, downsize risquerait de saturer)
5. **Action requise** : commande aws CLI / gcloud / az CLI pour faire le changement

Règle : ne propose JAMAIS de supprimer une VM sans demander à voir au moins 7 jours d'historique des connexions sortantes (sinon tu peux killer un cron caché). Demande explicitement les logs SSM / Cloud Logging avant.
TipExporte les métriques via CloudWatch Metrics (AWS) > Get CPU/Memory utilization > Average over 30 days. Pour la RAM tu auras besoin du CloudWatch Agent ou Ops Agent installé — sinon tu travailles à l'aveugle sur la RAM.

3. Audit S3 / Cloud Storage / Blob Storage — lifecycle policy generator

Ton S3 contient 50 To et tu paies 1200€/mois — beaucoup est froid ou archivable, mais tu ne sais pas par où commencer.

Claude 4.7 Opus (2026-05)GPT-5 (2026-05)
Tu es un consultant FinOps spécialisé en object storage. J'ai un bucket <PROVIDER> avec les caractéristiques suivantes :

- Volume total : <X> To
- Classes de stockage actuelles : <ex: 100% S3 Standard>
- Coût mensuel : <Y>€
- Description des données : <DECRIS_LES_DONNÉES — ex: 'logs applicatifs des 5 dernières années, accédés en moyenne 1x par semaine pour debugging'>
- Pattern d'accès observé (si dispo) : <ex: 'derniers 30j accédés, plus rien après'>
- Contrainte de rétention : <ex: 'compliance 7 ans'>

Donne-moi :

1. **Recommandation de lifecycle policy** sous forme de JSON prêt à coller (AWS Lifecycle Rule, GCS Lifecycle, Azure Blob Lifecycle).
2. **Pour chaque transition** (Standard → IA → Glacier / Coldline / Archive) : à partir de combien de jours, et pourquoi à ce délai.
3. **Économie mensuelle estimée** à 6 mois et à 12 mois après mise en place de la policy.
4. **Risque de retrieval** : si je dois récupérer des données archivées, quel délai + quel coût supplémentaire.
5. **Une checklist pré-déploiement** : 5 vérifications à faire AVANT d'activer la policy (ex: vérifier que les apps n'ont pas hardcodé l'attente d'un accès < 100ms).

Ajoute un warning explicite si je risque de casser une dépendance (ex: 'Glacier Deep Archive a un délai de retrieval de 12h, incompatible avec tout dashboard temps réel').
TipAvant de déployer une lifecycle policy : DRY RUN d'abord (AWS S3 Storage Lens > simulate). Active sur 1 préfixe pilote pendant 1 mois avant de généraliser au bucket entier.

4. Decision matrix : On-Demand vs Reserved Instance vs Savings Plan vs Spot

Tu hésites sur la stratégie d'engagement pour 30+ instances en production. Pas envie de signer un 3 ans Reserved sans calcul.

Claude 4.7 Opus (2026-05)
Tu es un consultant FinOps. Je te donne mon profil de workload et tu me proposes la meilleure stratégie d'engagement <PROVIDER>.

Mon profil :
- Nombre d'instances : <X>
- Type d'instances : <ex: m5.large + r5.xlarge>
- Stabilité de l'usage : <stable 24/7 | variable jour/nuit | très bursty | dev only>
- Horizon d'utilisation prévisible : <6 mois | 1 an | 3 ans>
- Cash flow constraint : <fort | modéré | aucun>
- Tolérance à l'interruption : <aucune (prod critique) | modérée (workers batch) | forte (CI/CD)>

Donne-moi :

1. **Recommandation principale** (en 1 phrase claire) : ex 'Compute Savings Plan 1 an, all upfront, couvrant 70% de la baseline'.
2. **Mix optimal** sous forme de tableau : pour chaque tranche d'instances, quel modèle d'engagement, % couvert, et économie estimée vs 100% on-demand.
3. **ROI breakeven** : à partir de combien de mois l'engagement est rentable, et que se passe-t-il si je résilie avant.
4. **Risques** : 3 scénarios qui rendraient mon plan moins bon (ex: 'si tu pivot vers Graviton dans 6 mois, ton RI x86 devient inutile').
5. **Action plan** : 3 étapes concrètes dans l'ordre, avec qui doit valider (CTO / CFO / DevOps lead) avant de cliquer.

Règle : ne recommande JAMAIS un engagement 3 ans si l'horizon de l'entreprise est <2 ans (early-stage). Préfère Savings Plan 1 an ou Spot Fleet pour workloads bursty.
TipReserved Instances sont des contrats — pas des suggestions. Si tu signes 3 ans, tu paies 3 ans même si tu sors d'AWS. Savings Plans sont plus flexibles (Compute SP couvre toute la famille d'instances).

5. Diagnostiquer un pic de Data Transfer Out (la facture cachée)

Ta facture cloud explose mais le compute reste stable — c'est probablement l'égress qui te tue (et tu ne le voyais pas).

Claude 4.7 Opus (2026-05)GPT-5 (2026-05)
Tu es un consultant FinOps + networking. J'observe un pic anormal de coûts 'Data Transfer Out' / 'Egress' sur ma facture <PROVIDER>.

Contexte :
- Service / région concerné(e) : <ex: us-east-1, NAT Gateway>
- Volume sur le mois : <X> TB sortants
- Coût correspondant : <Y>€
- Architecture (résumé) : <ex: 'webapp Lambda + RDS Postgres + S3 statics + CloudFront devant'>
- Changement récent : <ex: 'on a déployé un microservice il y a 3 semaines' / 'aucun'>

Aide-moi à localiser la fuite :

1. **Hypothèses les plus probables** (top 5, ordonnées par fréquence en production) : ex 'cross-AZ traffic non optimisé', 'NAT Gateway au lieu de VPC Endpoint pour S3', 'CloudWatch Logs vers une région différente', 'pulls Docker depuis Internet au lieu d'ECR', 'log shipping vers Datadog hors-région'.
2. **Pour chaque hypothèse** : la commande/dashboard CloudWatch / VPC Flow Logs / Network Insights à utiliser pour confirmer ou écarter (donne-moi le query exact si possible).
3. **Fix concret** pour chacune : ex 'remplacer NAT Gateway par VPC Endpoint Gateway pour S3 → économie ~0.045/GB → ~10x'.
4. **Une question critique** à poser à l'équipe avant tout fix (ex: 'le microservice X cross-region est-il intentionnel pour DR ou c'est un placement par défaut ?').

Format : tableau pour 1-3, bullet pour 4.
TipActive VPC Flow Logs AVANT le pic de facture, pas après. Sinon tu n'auras pas les données pour comprendre. Tarif Flow Logs vers S3 est ~0.50€/GB analysé — pas gratuit, mais c'est la seule source de vérité pour les transferts inter-services.

How to use these prompts

Each prompt has placeholders in <ANGLE_BRACKETS> — fill them in before pasting. Copy the prompt with the button, paste into Claude, ChatGPT, Gemini, or any chat-UI'd LLM.

Why "model tested" dates matter

LLMs improve and regress with every release. A prompt that worked on Claude 3.5 may need rewriting for Claude 4. The dates show when each prompt was last verified — anything older than 6 months should be re-tested before depending on it.

Found a better prompt?

Hit contact and share — we keep prompts that beat ours.