La course aux composants IA est ouverte !

La course aux composants IA est ouverte !

Elle l'était depuis plusieurs années. La logique est très simple : concevoir des puces spécifiques aux traitements de données, aux LLM, au Machine Learning. Apple en déploie dans ces SoC, Google le fait avec la gamme TPU, AWS fait de même tout comme Meta. Un des leaders est NVIDIA. Il y a quelques jours, Microsoft a dévoilé sa première puce : Maia 100.

Pour Microsoft, l'enjeu est important pour booster les performances des services Azure IA, voire, dans les prochaines générations de matériels. La crise OpenAI a sans doute provoqué des sueurs froides car les investissements sont stratégiques pour le fournisseur. En parallèle, Microsoft prépare le déploiement à large échelle de son CPU ARM : Azure Cobalt (128 coeurs).


Maia embarque 105 milliards de transistors et gravure en 5 nm.

Sans GPU et puces dédiées, il deviendra difficile pour un acteur technologique de prendre une place sur le marché et pour réduire sa dépendance envers un fournisseur de composants et faire du sur-mesure pour ces propres technologies et usages

Lire plus

Intelligence artificielle générative : comment réconcilier les enjeux des métiers avec les impératifs de la DSI

Par Sébastien MARCHE chez Experteam L’intelligence artificielle générative bouleverse les organisations en permettant de nouvelles façons d’interagir avec les données et les systèmes. Elle devient un levier stratégique pour automatiser les tâches répétitives, améliorer la prise de décision et renforcer l’innovation dans les métiers. Ces derniers recherchent

par François Tonic