Continuer avec Google
Continuer avec Facebook
Continuer avec Apple
La bataille de l'intelligence artificielle ne se joue plus seulement sur les modèles, mais sur l'infrastructure qui les fait tourner. La montée en puissance des puces ASIC, conçues pour des usages spécifiques, redessine progressivement l'équilibre technologique dominé jusqu'ici par les GPU.
En avril 2025, Google a dévoilé la septième génération de sa Tensor Processing Unit (TPU), une puce de type ASIC entièrement pensée pour les calculs liés à l'IA. Utilisées dans ses propres data centers, ces puces offrent une capacité de traitement élevée tout en consommant nettement moins d'énergie que les processeurs graphiques traditionnels. Longtemps réservées à un usage interne, elles alimentent désormais les spéculations sur une possible ouverture à d'autres acteurs du cloud.Ce mouvement illustre un changement profond dans l'architecture des infrastructures numériques. Les GPU, polyvalents et puissants, ont joué un rôle central dans l'essor de l'IA générative. Mais leur consommation énergétique et leur coût d'exploitation deviennent un enjeu majeur à mesure que les volumes de calcul explosent. Les ASIC, optimisés pour des tâches précises, apparaissent comme une réponse plus efficiente à ces contraintes.
Pour les hyperscalers, l'équation est de plus en plus claire. Investir dans des puces sur mesure représente un coût initial élevé, mais permet de réduire durablement les dépenses opérationnelles des data centers. Selon Pictet AM, les TPU de Google affichent une efficacité énergétique deux à trois fois supérieure à celle des GPU pour certaines tâches d'IA. De son côté, Amazon Web Services met en avant ses puces Trainium, dont le rapport prix-performance serait supérieur de 30 à 40 % aux solutions reposant uniquement sur des GPU.Cette recherche d'efficacité prend une dimension stratégique dans un contexte de contraintes croissantes sur l'accès à une énergie abordable et durable. À grande échelle, la performance ne se mesure plus uniquement en puissance brute, mais en capacité à produire davantage de calculs avec moins de ressources.
Derrière cette évolution technologique, certains acteurs industriels tirent leur épingle du jeu. Broadcom s'est imposé comme le principal partenaire de Google pour la conception et la fabrication des TPU. Si Google définit l'architecture de ses puces, Broadcom fournit des composants essentiels, dans le cadre d'un partenariat étroit et difficilement réplicable. Cette position place le groupe au cœur de l'écosystème IA, tout en contribuant à réduire la dépendance du secteur à Nvidia.Marvell, de son côté, traverse une période plus contrastée sur les marchés. Les investisseurs s'interrogent sur sa dépendance à quelques grands clients, ce qui a pesé sur son cours en 2025. Mais l'entreprise conserve des atouts technologiques solides et une exposition directe à la croissance du marché des ASIC. Selon Pictet AM, le marché applique aujourd'hui une décote d'attente, dans l'attente de preuves plus tangibles de la montée en puissance de ses solutions.
La montée des ASIC ne signe pas la fin des GPU. Nvidia conserve une position dominante sur de nombreux usages, notamment pour le développement et l’entraînement de nouveaux modèles. Mais l’écosystème de l’IA devient plus fragmenté, avec une complémentarité croissante entre GPU et puces spécialisées. À terme, la capacité des entreprises à transformer les investissements massifs dans l’IA en gains de productivité mesurables sera déterminante.Dans cette course technologique, l’avantage compétitif ne se jouera pas uniquement sur la puissance, mais sur l’efficacité, la maîtrise des coûts et l’intégration verticale des infrastructures.