En 2026, « plus de calcul » n’est plus un choix technique neutre pour l’IA dans le commerce en ligne. Entraînement, re-classement, personnalisation, détection de fraude et assistants clients consomment une énergie dont l’intensité carbone est mesurable et dont le prix se voit immédiatement sur la facture. Le calcul « carbon-aware » est une approche pragmatique qui consiste à décider quand et où exécuter les charges de travail, et comment servir les modèles, afin de réduire les émissions et les coûts tout en conservant des résultats stables en recherche et en recommandations.
L’ordonnancement bas-carbone part d’un constat simple : le réseau électrique n’est pas aussi « propre » à toute heure. L’intensité carbone peut varier d’une heure à l’autre selon les centrales appelées en dernier ressort, la disponibilité de l’éolien et du solaire, ou encore les importations. Si vous pouvez déplacer des tâches flexibles — entraînements, backfills, génération de caractéristiques en lot, embeddings à grande échelle, évaluation hors ligne — vers des périodes plus sobres en CO₂, vous réduisez les émissions sans modifier le modèle.
La version la plus simple consiste à décaler dans le temps, à l’intérieur d’une même région : vous mettez en file des tâches « non urgentes » avec une échéance et vous les exécutez lorsque les prévisions indiquent moins de gCO₂e par kWh. Une version plus avancée consiste à décaler dans l’espace : exécuter la même tâche dans une autre région cloud, plus sobre à cet instant, si les contraintes de résidence des données et de latence le permettent. Dans tous les cas, l’idée est d’optimiser avec une prévision et une date limite — pas à l’instinct.
Dans l’e-commerce, on démarre souvent par les traitements déjà asynchrones : enrichissement nocturne du catalogue, mise à jour des prévisions de demande, rafraîchissement des embeddings d’images produits, reconstruction d’index de recherche. On peut aussi l’appliquer à l’inférence « batch » périodique, par exemple la génération de candidats pour un re-ranking — du travail qui peut être produit quelques heures plus tôt et mis en cache pour l’usage ultérieur.
Cette approche est très efficace dès que la charge tolère un délai et qu’elle possède une « dernière heure acceptable » de fin. Beaucoup de tâches d’IA retail entrent dans ce cadre : vous pouvez rafraîchir des recommandations à 03:00 plutôt qu’à 19:00, ou lancer un réentraînement lourd le dimanche après-midi, tant que le modèle est prêt pour le trafic du lundi.
C’est plus délicat lorsque la latence fait partie du produit. Le classement temps réel en recherche, l’évaluation du risque de paiement ou la personnalisation au checkout ont des budgets de réponse serrés. Ici, l’ordonnancement bas-carbone consiste moins à retarder la requête qu’à choisir intelligemment la région de service, à réduire la taille du chemin critique et à baisser l’énergie par requête.
Un schéma réaliste est de « séparer par urgence ». On garde le chemin interactif déterministe et rapide, mais on déplace tout ce qui l’entoure — recalcul de caractéristiques, rafraîchissement d’embeddings, fine-tuning, évaluation hors ligne, analyse A/B — vers des fenêtres où le réseau est plus sobre et, souvent, l’énergie moins chère. Les SLA restent intacts, tandis que l’empreinte totale diminue.
Le calcul bas-carbone n’est jamais une optimisation à métrique unique. Si vous visez l’heure la moins carbonée sans garde-fous, vous pouvez créer des pics de file d’attente, rater des échéances de rafraîchissement, ou pousser des jobs vers des périodes plus chères. Si vous ne visez que le coût, vous pouvez déplacer des régions et augmenter les frais de transfert, ou sortir d’un cadre de conformité. L’objectif opérationnel est une politique équilibrée, pas un coup d’éclat isolé.
Pour l’e-commerce, l’arbitrage le plus fréquent oppose fraîcheur et empreinte. Un modèle de recommandation rafraîchi toutes les heures peut améliorer l’engagement, mais il peut aussi multiplier le calcul en lot. L’approche bas-carbone consiste à conserver la même cadence tout en décalant les étapes lourdes (extraction de caractéristiques, génération d’embeddings) vers des créneaux plus sobres, ou à réduire le calcul par rafraîchissement via l’optimisation de modèle afin de garder la fraîcheur sans payer la facture carbone.
Un autre arbitrage oppose « efficacité centralisée » et « proximité edge ». Servir plus près de l’utilisateur réduit la latence, mais une empreinte edge plus petite peut être moins efficace énergétiquement qu’un grand cluster central. En pratique, beaucoup d’équipes gardent une petite couche edge pour les chemins à latence stricte et déportent la récupération ou la génération lourde vers des serveurs centraux efficaces, avec du cache pour éviter les recalculs.
Une politique exploitable commence par trois nombres par job : une échéance, un coût maximal acceptable, et une intensité carbone maximale acceptable (ou un objectif de réduction). Ensuite, vous choisissez une stratégie d’ordonnancement : « exécuter quand c’est plus sobre, tant que le coût reste à X% du niveau de référence » ou « exécuter quand c’est moins cher, sauf si l’intensité carbone dépasse Y ». Cela transforme un objectif durable un peu flou en règle compréhensible pour l’équipe d’astreinte.
Il faut aussi prévoir un mode dégradé. Les prévisions d’intensité carbone sont utiles, mais elles ne sont pas parfaites ; des événements réseau surviennent. Si un job glisse, vous devez pouvoir outrepasser la politique et exécuter immédiatement. Le gain réel est d’exécuter plus propre par défaut la plupart des jours, tout en livrant à l’heure les jours où ce n’est pas possible.
Enfin, définissez ce qui ne se négocie pas. Par exemple : « la latence P95 de la recherche ne doit pas changer », « le scoring du risque au checkout ne peut pas changer de région », ou « les données personnelles restent dans les zones approuvées ». Le calcul bas-carbone s’insère très bien dans ces contraintes lorsqu’on le traite comme un sujet d’ordonnancement et d’efficacité, pas comme une migration permanente.

L’ordonnancement aide, mais l’efficacité est souvent là où se trouvent les gains les plus importants et les plus prévisibles. En 2026, les équipes disposent d’outils matures pour réduire l’énergie par requête : quantification vers des précisions plus faibles lorsque c’est sûr, distillation pour conserver la précision tout en réduisant la taille du modèle, et mise en cache pour éviter de recalculer des sorties identiques sur des requêtes ou vues produit répétées.
La quantification est particulièrement utile lorsque le modèle est limité par le calcul et que vous pouvez valider que la qualité reste dans la tolérance — notamment pour des composants de retrieval et de ranking. La distillation fonctionne bien lorsque vous pouvez entraîner un « étudiant » plus petit à imiter un « professeur » plus grand, puis servir l’étudiant pour la majorité du trafic en réservant le grand modèle aux cas limites, aux audits ou à l’évaluation hors ligne.
Le cache est un levier souvent sous-estimé dans le retail. Beaucoup de requêtes se répètent : produits populaires, recherches courantes, pages de catégories standard. Si vous mettez en cache des ensembles de candidats, des embeddings ou des sorties de modèle avec des TTL raisonnables, vous réduisez immédiatement coût et CO₂. L’important est la conception : les clés, l’expiration, et la manière d’éviter de servir des résultats obsolètes là où la fraîcheur compte.
En recherche et en recommandations, l’architecture pèse souvent plus que l’optimisation fine des kernels. Les systèmes en deux étapes — retrieval rapide de candidats puis re-ranker plus léger — peuvent surpasser un seul modèle massif à la fois sur la latence et sur l’énergie. L’astuce est de garder la première étape peu coûteuse et orientée rappel, puis de dépenser du calcul uniquement là où cela change réellement le top des résultats.
Le batching et le batching dynamique peuvent réduire l’énergie par token ou par item scoré, mais seulement si vous maîtrisez la latence de queue. En pratique, on fixe une petite fenêtre de batching pour les endpoints interactifs et une fenêtre plus large pour le scoring en arrière-plan. Le but est de déclencher moins souvent les GPU et d’améliorer l’utilisation, sans transformer le trafic utilisateur en file d’attente.
Enfin, privilégiez un matériel « à la bonne taille » et un autoscaling qui suit la charge réelle, pas des hypothèses. Des GPU surdimensionnés coûtent cher et émettent du CO₂ même au repos. Pour des charges stables, l’inférence CPU sur des modèles plus petits peut être plus efficiente ; pour des charges irrégulières, des pools préchauffés et une réduction agressive peuvent préserver la réactivité sans payer de capacité inutilisée.