VeriSilicon (688521.SH) a annoncé aujourd’hui les dernières avancées de ses PI de calcul GPGPU-AI haute performance et évolutives, qui équipent désormais des applications électroniques automobiles et des serveurs périphériques de nouvelle génération. Combinant un calcul parallèle programmable avec un accélérateur dédié à l’intelligence artificielle (IA), ces PI offrent une densité de calcul exceptionnelle pour les charges de travail d’IA exigeantes telles que l’inférence de modèles linguistiques à grande échelle (LLM), la perception multimodale et la prise de décision en temps réel dans des environnements soumis à des contraintes thermiques et énergétiques.
Les PI de calcul GPGPU-AI de VeriSilicon sont basées sur une architecture GPGPU (General Purpose Graphics Processing Unit) haute performance avec un accélérateur d’IA dédié intégré, offrant des capacités de calcul exceptionnelles aux applications d’IA. L’accélérateur d’IA programmable et le moteur de calcul sensible à la parcimonie accélèrent les modèles basés sur des transformateurs et les modèles à forte intensité matricielle grâce à des techniques de planification avancées. Ces PI prennent également en charge un large éventail de formats de données pour le calcul à précision mixte, notamment INT4/8, FP4/8, BF16, FP16/32/64 et TF32, et sont conçues avec des interfaces à large bande passante de mémoire empilée en 3D, LPDDR5X, HBM, ainsi que PCIe Gen5/Gen6 et CXL. Elles sont également capables d’une expansion à grande échelle multi-puces et multi-cartes, offrant une évolutivité au niveau du système pour les déploiements d’applications d’IA à grande échelle.
Les PI de calcul GPGPU-AI de VeriSilicon fournissent une prise en charge native des frameworks d’IA populaires pour l’entraînement et l’inférence, tels que PyTorch, TensorFlow, ONNX et TVM. Ces PI prennent également en charge le langage de programmation généraliste (GPCL), qui est compatible avec les langages de programmation GPGPU courants et les compilateurs couramment utilisés. Ces capacités sont parfaitement adaptées aux exigences de calcul et d’évolutivité des principaux LLM actuels, notamment des modèles tels que DeepSeek.
« La demande en matière de calcul IA sur les serveurs périphériques, tant pour l’inférence que pour l’entraînement incrémental, connaît une croissance exponentielle. Cette augmentation nécessite non seulement une grande efficacité, mais aussi une forte programmabilité. Les processeurs de calcul GPGPU-IA de VeriSilicon sont conçus pour intégrer étroitement le calcul GPGPU à l’accélérateur d’IA à des niveaux très fins. Les avantages de cette architecture ont déjà été validés dans plusieurs systèmes de calcul IA haute performance », déclare Weijin Dai, directeur de la stratégie, vice-président exécutif et directeur général de la division PI chez VeriSilicon. « Les récentes avancées de DeepSeek amplifient encore plus le besoin d’une efficacité informatique d’IA maximisée pour faire face à des charges de travail de plus en plus exigeantes. Nos dernières PI de calcul GPGPU-IA ont été améliorées pour prendre en charge efficacement les modèles Mixture-of-Experts (MoE) et optimiser la communication inter-cœurs. Grâce à une étroite collaboration avec plusieurs clients leaders dans le domaine du calcul IA, nous avons étendu notre architecture afin de tirer pleinement parti de la bande passante abondante offerte par les technologies de mémoire empilée en 3D. VeriSilicon continue de travailler main dans la main avec ses partenaires de l’écosystème pour favoriser l’adoption massive de ces capacités avancées dans le monde réel. »
À propos de VeriSilicon
VeriSilicon s’engage à fournir à ses clients des services de silicium personnalisés, complets et uniques, basés sur une plateforme, ainsi que des services de licences PI pour semi-conducteurs en tirant parti de sa PI interne de semi-conducteurs. Pour plus d’informations, rendez-vous sur : www.verisilicon.com
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
Consultez la version source sur businesswire.com : https://www.businesswire.com/news/home/20250608868724/fr/
© Business Wire, Inc.
Avertissement :
Ce communiqué de presse n’est pas un document produit par l’AFP. L’AFP décline toute responsabilité quant à son contenu. Pour toute question le concernant, veuillez contacter les personnes/entités indiquées dans le corps du communiqué de presse.