La course aux composants IA est ouverte !

La course aux composants IA est ouverte !

Elle l'était depuis plusieurs années. La logique est très simple : concevoir des puces spécifiques aux traitements de données, aux LLM, au Machine Learning. Apple en déploie dans ces SoC, Google le fait avec la gamme TPU, AWS fait de même tout comme Meta. Un des leaders est NVIDIA. Il y a quelques jours, Microsoft a dévoilé sa première puce : Maia 100.

Pour Microsoft, l'enjeu est important pour booster les performances des services Azure IA, voire, dans les prochaines générations de matériels. La crise OpenAI a sans doute provoqué des sueurs froides car les investissements sont stratégiques pour le fournisseur. En parallèle, Microsoft prépare le déploiement à large échelle de son CPU ARM : Azure Cobalt (128 coeurs).


Maia embarque 105 milliards de transistors et gravure en 5 nm.

Sans GPU et puces dédiées, il deviendra difficile pour un acteur technologique de prendre une place sur le marché et pour réduire sa dépendance envers un fournisseur de composants et faire du sur-mesure pour ces propres technologies et usages