Pour les géants technologiques, développer des solutions maison permet d’obtenir des puces plus spécialisées, optimisées et moins coûteuses. Mais aussi de se positionner avantageusement sur la grande opportunité technologique du moment: l’intelligence artificielle générative.

Pour assurer sa domination sur le futur de l’intelligence artificielle, Microsoft met les bouchées doubles. Comme l’a révélé le site d’investigation de la Silicon Valley The Information, le géant de l’informatique travaille sur ses propres puces dédiées à l’intelligence artificielle. L’enjeu? Concurrencer Nvidia, en développant des alternative maison aux unités de traitement graphiques, les fameuses GPUs – ou  graphic processing unit – qui ont fait le succès du leader mondial incontesté en la matière.

Baptisé Athéna, ce projet a été lancé en 2019 et vise à produire des microprocesseurs pour entraîner les modèles d’intelligence artificielle, notamment ceux d’OpenAI, la société derrière ChatGPT, sur laquelle Microsoft mise gros. Il est pour l’heure en phase de test et les premières puces devraient être lancées à grande échelle l’an prochain.

Entraîner une intelligence artificielle coûte cher

Pour l’entraînement de ses algorithmes, l’intelligence artificielle générative requiert une puissance de calcul considérable. Ainsi, pour concevoir le modèle de langage qui alimente ChatGPT, plus de 10’000 cartes graphiques A100 de Nvidia ont ainsi dû être utilisées. Pour commercialiser son chatbot, OpenAI pourrait avoir besoin de 30’000 d’entre elles, selon certaines estimations. Or, une telle puissance informatique a un coût.

2023.05.17.AI chips
Source : alliedmarketresearch

La puce H100 de dernière génération vendue par Nvidia est ainsi facturée 30’000 dollars. La demande étant trop forte par rapport à l’offre, elles se revendent même à plus de 40 000 dollars pièce sur eBay. «Le temps d’attente pour la nouvelle unité de traitement graphique H100 de Nvidia est énorme, plus de huit mois pour un déploiement à grande échelle», précise Dylan Patel, analyste chez SemiAnalysis, un cabinet spécialisé dans la recherche sur les puces.

L’objectif de Microsoft n’est cependant pas de se passer des GPUs de Nvidia, qui demeure un acteur incontournable avec près de 90% de parts de marché sur les puces spécialisées dans l’intelligence artificielle, selon Jon Peddie Research, un cabinet de recherche en informatique. Mais plutôt de solidifier son approvisionnement en puces spécialisées dans l’intelligence artificielle et de réduire ses coûts, Nvidia profitant de sa position dominante pour se tailler une marge confortable d’environ 85% sur les puces dédiées aux centres de données, selon les estimations de certains analystes.

«Microsoft possède des millions de serveurs informatiques dans le monde entier, et l’intelligence artificielle devient tellement omniprésente que la plupart de ceux-ci devront bientôt troquer les CPU généralistes [les microprocesseurs traditionnels, ndlr] contre des puces plus spécialisées. À l’heure où Microsoft souhaite intégrer l’IA dans son moteur de recherche Bing, la suite Office et plus généralement tout ce qui est au contact des utilisateurs, les économies potentielles ne vont faire que s’accroître avec le temps», résume Mike Demler, analyste indépendant spécialisé dans l’industrie des semi-conducteurs.

2023.05.17.AI chip market
Source : Technavio

Du silicium sur-mesure

Mais le fait de concevoir ses puces en interne permet également à Microsoft de passer du prêt-à-porter au sur-mesure, et ainsi d’obtenir exactement les processeurs dont il a besoin pour mettre en œuvre ses ambitions autour de l’intelligence artificielle. Une logique qui a déjà conquis ses deux rivaux sur le marché de l’informatique en nuage, Google et Amazon. Ce dernier a lancé fin 2021 sa puce Trainium pour entraîner ses algorithmes d’intelligence artificielle, tandis que Google a également lancé plusieurs générations de puces, d’abord pour faire de l’inférence, puis pour entraîner ses modèles. La cinquième génération de ses puces TPU doit être lancée l’an prochain.

«Tous les hyperscalers développent leurs propres puces spécialisées dans l’intelligence artificielle. Ces puces sont conçues spécialement pour leur architecture cloud et leurs algorithmes d’intelligence artificielle maison. Par rapport aux puces H100 de Nvidia, qui sont à la fois généralistes, très puissantes et très chères, ces puces plus simples et spécialisées leur permettent à la fois de gagner en efficacité et de baisser leurs coûts », explique Jack Gold, analyste tech indépendant. « De nombreux marchés vont bénéficier de l’intelligence artificielle, et nombre d’entre eux vont recourir à des puces sur mesure pour répondre à leurs besoins bien spécifiques, qui ne sont pas couverts par Nvidia.»

Il pourrait s’agir aussi, pour Microsoft, de consolider la longueur d’avance dont le géant de l’informatique bénéficie aujourd’hui grâce à son investissement dans OpenAI. «Au-delà de la baisse des coûts, l’accélération sur l’intelligence artificielle requiert de coupler la conception du matériel et du logiciel. Microsoft et OpenAI ont donc sans doute pour objectif de personnaliser une puce pour entraîner leurs algorithmes», note Mike Demler.

Tous les géants technologiques s’y mettent

Les géants du cloud ne sont du reste pas les seuls concernés. Dans ce domaine, Apple fait figure de pionnier. L’ensemble des appareils de la société, montre connectée et casques compris, sont aujourd’hui équipées de puces au design maison. Mi-janvier, Apple a dévoilé sa nouvelle ligne de MacBook Pro Mac mini, tous deux équipés de sa toute nouvelle puce M2 Pro, avec la possibilité, pour le MacBook Pro, d’opter pour la M2 Max, plus puissante.

Désormais, le groupe à la pomme cherche également à développer ses propres puces wifi et Bluetooth (pour lesquelles elle s’approvisionne aujourd’hui chez Broadcom) ainsi que des puces 5G maison, comme alternative au Snapdragon 5G de Qualcomm qui équipe aujourd’hui l’iPhone.

Meta, de son côté, vient tout juste de débaucher un cadre de Microsoft spécialisé dans les puces. Tesla a pour sa part lancé sa puce Dojo, spécialement conçue pour entraîner l’algorithme de son autopilote.

Pourquoi la domination de Nvidia n’est malgré tout pas menacée

Mais là encore, il s’agit moins de concurrencer Nvidia que de développer des puces dédiées à des usages bien spécifiques. Une tâche qui, étant donnée la complexité de cette industrie, n’est pas une mince affaire, même pour ces géants technologiques.

«Elon Musk a annoncé récemment qu’il espérait que sa puce Dojo soit aussi compétitive que la GPU H100 de Nvidia d’ici la fin de l’année. Cela montre que même pour une entreprise comme Tesla, qui possède certains des meilleurs ingénieurs au monde dans ce domaine, il n’est pas facile de battre les GPUs de Nvidia», affirme Antoine Chkaiban, analyste chez New Street Research, un cabinet d’intelligence de marché spécialisé dans les nouvelles technologies.

D’autant que le développement de puces en interne est lui aussi une activité coûteuse, qui, si elle peut s’avérer rentable sur le long terme, requiert l’investissement de centaines de millions de dollars, ce que peu de sociétés peuvent se permettre. Nvidia peut donc continuer à dormir sur ses deux oreilles.