Qualcomm Technologies, Inc. a anunțat lansarea noii generații de soluții optimizate pentru inferență AI dedicate centrelor de date: plăcile accelerator Qualcomm® AI200 și AI250, alături de rack-urile corespunzătoare. Noile soluții oferă performanță la nivel de rack, capacitate de memorie superioară și un raport excelent între performanță, cost și eficiență energetică – reprezentând un pas major în dezvoltarea infrastructurii pentru AI generativ la scară globală.
Noua tehnologie ar putea permite companiei să intre in competiție directă cu Nvidia și AMD care au anunțat de asemenea lansări de noi produse destinate centrelor de date.
Modelul AI200 este proiectat special pentru inferența modelelor mari de limbaj (LLM) și multimodale (LMM), oferind performanță optimizată și un cost total de operare redus (TCO). Fiecare placă dispune de 768 GB de memorie LPDDR, ceea ce permite o capacitate ridicată de procesare și o scalabilitate excepțională pentru aplicații AI complexe.
Noile soluții Qualcomm includ un ecosistem software complet, optimizat pentru inferență AI, compatibil cu principalele framework-uri de machine learning și generative AI. Prin Qualcomm AI Inference Suite și biblioteca Efficient Transformers, dezvoltatorii pot integra și implementa rapid modele AI, inclusiv cele disponibile pe platforma Hugging Face, printr-o simplă operațiune „one-click deployment”.
„Cu AI200 și AI250 redefinim standardele pentru inferența AI la nivel de rack. Aceste soluții permit implementarea rapidă și eficientă a modelelor generative, menținând totodată flexibilitatea și securitatea cerute de centrele de date moderne”, a declarat Durga Malladi, Senior Vice President & GM, Technology Planning, Edge Solutions & Data Center, Qualcomm Technologies, Inc.
Conform companiei, Qualcomm AI200 va fi disponibil comercial în 2026, iar AI250 în 2027, marcând o nouă etapă în evoluția infrastructurii AI pentru centrele de date la nivel global.



