Tesla envisage les puces HBM4 de Samsung et SK Hynix pour alimenter son supercalculateur Dojo. 2025
En un mot: Tesla s’est retrouvé à l’avant-garde d’une concurrence acharnée entre les géants sud-coréens des semi-conducteurs Samsung et SK Hynix, le constructeur de voitures électriques ayant apparemment contacté les deux sociétés pour obtenir des échantillons de leurs prochaines puces mémoire HBM4.
Tesla souhaite intégrer la prochaine génération de mémoire à haut débit dans son système Dojo, un superordinateur sur mesure conçu pour former les réseaux neuronaux « Full Self-Driving » de l’entreprise. Les initiés de l’industrie suggèrent que Tesla pourrait déployer la mémoire mise à niveau non seulement dans Dojo. , mais aussi dans ses datacenters et ses futures voitures autonomes.
Le système Dojo utilise actuellement des puces HBM2e plus anciennes pour entraîner les modèles d’IA complexes qui sous-tendent les capacités de conduite entièrement autonome de Tesla, mais comme le rapporte TrendForce citant Journal économique Maeli est importantl’entreprise souhaite profiter de l’amélioration des performances promise par HBM4.
Pour ceux qui ne sont pas familiers, la mémoire à large bande passante comme la HBM4 est un type spécialisé de RAM conçu pour fournir un débit de données massif tout en fonctionnant avec une plus grande efficacité énergétique, ce qui la rend idéale pour la puissance de traitement requise pour les charges de travail d’IA modernes.
SK Hynix affirme que sa puce offrira 1,4 fois la bande passante de son prédécesseur Génération HBM3e tout en consommant 30 % d’énergie en moins. Si cela est exact, cela représente une amélioration du débit de plus de 1,65 téraoctets par seconde.
Une autre innovation attendue du HBM4 est un lecteur logique intégré qui agit comme un contrôleur sous la pile mémoire, un changement qui pourrait débloquer de nouvelles optimisations de vitesse et de puissance, idéales pour le traitement des données de l’IA.
SK Hynix et Samsung se battent farouchement pour revendiquer leur place sur le marché HBM, qui devrait atteindre 33 milliards de dollars d’ici 2027. Les deux rivaux travailleraient dur sur des prototypes HBM4 qui sont spéciaux pour Tesla et d’autres grands titans technologiques américains, notamment Microsoft, Méta et Google.
SK mène actuellement la course en fournissant des puces à Nvidia et vise à démarrer la production du HBM4 d’ici la fin de 2025. L’entreprise a également réussi à aller de l’avant. le début d’abord sa mémoire flash TLC NAND à 321 couches. Samsung semble déterminé à gagner du terrain ; il s’est associé à TSMC pour produire des composants clés à l’aide de son nœud de processus avancé de 4 nm.