Dans un article paru ce 4 décembre 2025 dans DataCentre Magazine, le PDG d’IBM, Arvind Krishna, refroidit brutalement l’enthousiasme pour les méga centres de données dédiés à l’IA, en chiffrant une équation économique bien moins glamour qu’annoncée. Il met en garde contre le caractère insoutenable des niveaux actuels d’investissement dans l’IA, alors que les hyperscalers poussent à des investissements et à une expansion sans précédent dans les centres de données. Le PDG d’IBM, a fait part de ses inquiétudes quant à la viabilité financière du développement mondial de l’IA, arguant que l’ampleur des investissements nécessaires pour les centres de données de nouvelle génération dépasse de loin tout retour sur investissement réaliste. Le message est sec, presque goguenard, mais il s’appuie sur des ordres de grandeur qui laissent peu de place au doute.
Le PDG d’IBM estime que la frénésie actuelle autour des capacités IA repose sur un socle financier fragile, et que la course au « toujours plus » risque d’étouffer ses propres promesses. Entre coûts d’équipement vertigineux, cycles de remplacement courts et factures énergétiques en embuscade, la réalité dépasse déjà les slogans. Les premiers calculs publics laissent entrevoir des montants colossaux pour des rendements encore à démontrer.
8 000 milliards de dollars : pourquoi l’équation économique de l’IA ne tient pas la route
Le calcul donne le vertige et c’est bien l’objectif de la manœuvre. Un seul gigawatt de capacité de calcul coûte la bagatelle de 80 milliards de dollars à construire et à équiper selon les chiffres avancés par le dirigeant. Comme l’industrie ambitionne de déployer une centaine de gigawatts pour soutenir l’IA générative, la facture totale grimperait mécaniquement à 8 000 milliards de dollars. Pour espérer rentrer dans ses frais avec une telle mise de départ, le secteur devrait générer des centaines de milliards de bénéfices annuels quasi immédiatement.
Un centre IA “classique” n’est pas comparable à un datacenter cloud traditionnel. Ces installations utilisent des GPU haute densité et des systèmes de refroidissement sophistiqués, ce qui alourdit notablement les coûts, tant à l’installation qu’au renouvellement. Ce cycle accéléré rend d’autant plus difficile le retour sur investissement.
L’argent n’est même pas le seul problème puisque le temps joue contre les géants de la tech. La durée de vie utile des puces spécialisées ne dépasse guère cinq ans avant d’être techniquement dépassée par une nouvelle génération plus performante. Cette obsolescence éclair oblige les exploitants à tout racheter en permanence et transforme l’investissement initial en un gouffre financier sans fond. Krishna souligne avec malice que personne ne peut amortir une infrastructure aussi lourde quand il faut la remplacer avant même qu’elle ait rapporté son premier dollar de profit réel.
Double doutes : rendement incertain… et but peut-être irrattrapable
Interrogé sur l’atteinte d’une AGI (Intelligence artificielle générale) avec l’architecture actuelle, Krishna se montre sceptique. Il estime la probabilité de succès à « environ 0 à 1 % » — à moins qu’une nouvelle génération de modèles combine plusieurs formes de connaissance de manière substantielle.
Cela ne l’empêche pas de reconnaître que l’IA offre déjà des bénéfices concrets pour les entreprises, en termes de productivité et d’automatisation. Mais selon lui, ces bénéfices ne suffiront pas à justifier la ruée actuelle vers des infrastructures colossales.
Vers de nouvelles idées : l’IA… dans l’espace ?
Alors que Krishna questionne la viabilité des centres de données terrestres, d’autres explorent des voies plus ambitieuses. Le PDG de Google, Sundar Pichai, a évoqué un projet spatial — baptisé « Project Suncatcher » — qui pourrait un jour permettre d’exécuter des calculs d’apprentissage automatique depuis des constellations de satellites alimentées en énergie solaire.
Dans ce contexte, la ruée vers “toujours plus de GPU sur Terre” pourrait sembler de plus en plus datée — peut-être le temps d’imaginer des architectures plus sobres, plus ingénieuses, et potentiellement hors du plancher terrestre.
La stratégie de la fuite en avant semble donc compromise. Les entreprises qui parient sur une arrivée imminente d’une super-intelligence pour justifier ces dépenses risquent de se heurter à un mur de réalité. Krishna suggère que l’avenir appartient aux architectures plus sobres et non à ceux qui empilent les processeurs graphiques jusqu’au ciel. Le message est passé et il est clair que la seule loi de Moore ne suffira plus à payer les factures d’électricité. Autrement dit : tant techniquement que financièrement, la “fête de l’IA” pourrait bien se solder par un réveil brutal — sauf à changer radicalement de modèle.
Photo d’en-tête : Arvind Krishna, CEO de IBM






