Los anuncios fueron realizados hoy en el evento Advancing AI 2024 por Lisa Su, CEO de AMD, quien celebra justamente esta semana su 10 aniversario como CEO de la compañía, y al que fue invitado este medio, y contó con la asistencia de prensa y analistas de todo el mundo.

La nueva Ryzen AI PRO 300 Series incluye los procesadores AMD Ryzen AI 7 PRO 360, AMD Ryzen AI 9 HX PRO 370 y AMD Ryzen AI 9 HX PRO 375. Los nuevos procesadores Ryzen AI PRO 300 Series ofrecen hasta tres veces el rendimiento de IA que la generación anterior, y un mayor rendimiento para las cargas de trabajo cotidianas.

«Equipados con las Tecnologías PRO de AMD, los procesadores Ryzen AI PRO 300 Series ofrecen características de seguridad y gestión de clase mundial diseñadas para agilizar las operaciones de TI y garantizar un ROI excepcional para las empresas».

Los procesadores Ryzen AI PRO 300 Series cuentan con la nueva arquitectura «Zen 5» de AMD (12 Cores y 24 Threads), que proporciona un mayor rendimiento de CPU. De acuerdo con la información brindada por el fabricante, el Ryzen AI 9 HX PRO 375, en la parte superior de la gama, ofrece hasta un 40% de rendimiento de CPU más rápido, y hasta un 14% en rendimiento de productividad en comparación con el Intel Core Ultra 7 165H con vPro; mientras que el AMD Ryzen AI 7 PRO 360 ofrece un 30% y 9%, respectivamente, frente al Intel Ultra 7 165U con vPro.

Con la adición de la arquitectura XDNA 2 que impulsa la NPU integrada, los procesadores Ryzen AI PRO 300 Series de AMD ofrecen más de 50 TOPS (Trillones de Operaciones por Segundo) de potencia de procesamiento AI 50-55 NPU TOPS (en comparación con los 16 TOPS de la segunda generación, Ryzen PRO 8040 Series), superando los requisitos de AI PC de Microsoft Copilot+. Construidos sobre un proceso de 4nm y con gestión de energía innovadora, los nuevos procesadores ofrecen una vida útil de batería prolongada.

«Cuando miras nuestras plataformas, las llamamos plataformas Ryzen AI Pro, realmente están diseñadas para ofrecer el mejor rendimiento, duración de batería de varios días, seguridad, confiabilidad, capacidad de administración, todas las cosas que necesitamos en las grandes empresas. Con Ryzen AI, de hecho, hemos habilitado cientos de funciones de IA diferentes, y nuestra última pila de software hace que sea realmente fácil para los desarrolladores optimizar miles de sus modelos preentrenados para Ryzen», destacó Lisa Su.

«La serie AI PRO 300 restablece el estándar de lo que una PC empresarial puede hacer».

Lisa Su, CEO de AMD.

AMD anunció que más de 100 PCs Ryzen AI PRO están programados para lanzarse hasta 2025.

CPUs AMD EPYC de 5ª Generación

Por su parte, los nuevos procesadores EPYC de 5ª Generación (nombre en código “Turin”) ofrecen un rendimiento y eficiencia récord para una amplia gama de cargas de trabajo en centros de datos, 

 

 

Con arquitectura de núcleo “Zen 5”, compatible con la plataforma SP5 ampliamente desplegada y una amplia gama de recuentos de núcleos que van de 8 a 192, los procesadores de la serie AMD EPYC 9005 extienden el rendimiento y la eficiencia energética de las generaciones anteriores, con el CPU de 192 núcleos en la parte superior de la gama que, de acuerdo con el fabricante, ofrece hasta 2.7X de rendimiento en comparación con la competencia.

El pase de diapositivas requiere JavaScript.

«Puedes reemplazar siete servidores legacy con un solo servidor EPYC, lo que reduce significativamente la potencia que necesita en su centro de datos y reduce el costo total de propiedad en más del 60 %. Y si a eso le sumamos los costos de licencias de software empresarial, significa que una empresa puede recuperar sus inversiones en tan solo seis a doce meses. Esto es bueno para los directores de TI y también para los directores financieros, que desean optimizar el gasto. Además, también crea espacio para toda la computación adicional que se necesita, ya sea que se trate de capacidad de IA o simplemente de agregar más capacidad de computación de propósito general. Ese es el beneficio de la nueva tecnología», destacó Lisa Su.

Una novedad en los CPUs de la serie AMD EPYC 9005 es el AMD EPYC 9575F de 64 núcleos, diseñado específicamente para soluciones de IA impulsadas por GPU que necesitan las máximas capacidades del CPU anfitrión. Aumentando hasta 5GHz, en comparación con el procesador de 3.8GHz de la competencia, proporciona hasta un 28% más de procesamiento necesario para mantener a las GPU alimentadas con datos para cargas de trabajo de IA exigentes.

“Con cinco generaciones en la hoja de ruta, AMD ha demostrado que puede satisfacer las necesidades del mercado de centros de datos y brindar a los clientes el estándar de rendimiento, eficiencia, soluciones y capacidades de centros de datos para cargas de trabajo empresariales, de IA y de nube”, dijo Dan McNamara, Senior Vice President & General Manager, Server Business, de AMD.

Aceleradores AMD Instinct MI325X

Hoy, AMD también anunció las últimas soluciones de aceleración y redes que impulsarán la próxima generación de infraestructura de IA a escala: los aceleradores AMD Instinct MI325X, la NIC AMD Pensando Pollara 400 y la DPU AMD Pensando Salina. 

Los aceleradores AMD Instinct MI325X, que se basan en la arquitectura AMD CDNA 3, están diseñados para ofrecer un rendimiento y una eficiencia excepcionales en tareas de IA exigentes que abarcan el entrenamiento, el ajuste y la inferencia de modelos básicos. «Juntos, estos productos permiten a los clientes y socios de AMD crear soluciones de IA optimizadas y de alto rendimiento a nivel de sistema, bastidor y centro de datos», aseguraron desde la compañía.

«En diciembre pasado, estimamos que el mercado de aceleradores de IA para centros de datos crecería de 45.000 millones de dólares en 2023 a más de 400.000 millones de dólares en 2027. Y en aquel momento, recuerdo que la gente me preguntaba: «Parece una cifra muy elevada». Desde entonces, la demanda de IA ha seguido creciendo y ha superado las expectativas. Está claro que la tasa de inversión sigue creciendo en todas partes, impulsada por modelos más potentes, modelos más grandes, nuevos casos de uso y, en realidad, una adopción más amplia de casos de uso de IA», introdujo Lisa Su. «Ahora, en los próximos cuatro años, esperamos que el crecimiento de la industria de los aceleradores de IA para centros de datos supere el 60% anual hasta alcanzar los 500 000 millones de dólares en 2028. Para AMD, esto representa una enorme oportunidad de crecimiento. Lanzamos nuestra familia Mi300 en diciembre pasado y tuvimos un desempeño de liderazgo y una demanda de clientes muy fuerte, y estoy muy feliz de decir que el crecimiento ha ido muy bien», aseguró.

«Una de las cosas que queríamos hacer era mantener una infraestructura común. Por eso, MI325 aprovecha el mismo diseño de plataforma compatible con OCP estándar de la industria que usamos en MI300. Y lo que hace es que es muy fácil para nuestros clientes y socios llevar soluciones al mercado».

Lisa Su, CEO de AMD.

Los aceleradores AMD Instinct MI325X ofrecen una capacidad de memoria y un ancho de banda líderes en la industria, con 256 GB de HBM3E que admiten 6,0 TB/s, lo que ofrece 1,8 veces más capacidad y 1,3 veces más ancho de banda que el H2001. El AMD Instinct MI325X también ofrece un rendimiento computacional teórico máximo 1,3 veces mayor en FP16 y FP8 en comparación con el H2001.

Esta memoria y computación líderes pueden proporcionar hasta 1,3 veces el rendimiento de inferencia en Mistral 7B en FP162, 1,2 veces el rendimiento de inferencia en Llama 3.1 70B en FP83 y 1,4 veces el rendimiento de inferencia en Mixtral 8x7B en FP16 del H2004.

«El interés de los clientes y socios de la industria ha sido fantástico. Estamos trabajando con todos los principales fabricantes de equipos originales y de diseño original. Estamos en camino de enviar la producción a finales de este trimestre con una amplia disponibilidad de sistemas de Dell, HPE, Lenovo, Supermicro y muchos otros proveedores a partir del primer trimestre de 2025″.

Lisa Su, CEO de AMD.

Además, AMD presentó una vista previa de los aceleradores de la serie AMD Instinct MI350 de próxima generación. disponibles durante la segunda mitad de 2025. Basados ​​en la arquitectura AMD CDNA 4, están diseñados para ofrecer una mejora de 35 veces en el rendimiento de inferencia en comparación con los aceleradores basados ​​en AMD CDNA 35.

«Cuando analizamos la hoja de ruta general, estamos absolutamente comprometidos a seguir superando los límites y ya estamos inmersos en el desarrollo de nuestra serie MI400, que se basa en nuestra arquitectura CDNA-NEXT que está prevista para 2026».

Lisa Su, CEO de AMD.

Redes de IA de próxima generación 

AMD está aprovechando la DPU programable más ampliamente implementada para hiperescaladores para impulsar las redes de IA de próxima generación. Para gestionar de manera eficaz las redes e impulsar un alto rendimiento, escalabilidad y eficiencia en todo el sistema, AMD presentó la DPU AMD Pensando Salina para el front-end y la AMD Pensando Pollara 400, la primera NIC de IA preparada para Ultra Ethernet Consortium (UEC) de la industria, para el back-end.

Forrest Norrod, Executive Vice President and General Manager, Data Center Solutions Business Group de AMD.

La DPU AMD Pensando Salina (de tercera generación) ofrece hasta el doble de rendimiento, ancho de banda y escalabilidad en comparación con la generación anterior. Con un rendimiento de 400 G para velocidades de transferencia de datos rápidas, es un componente fundamental en los clústeres de red de front-end de IA, que optimiza el rendimiento, la eficiencia, la seguridad y la escalabilidad para aplicaciones de IA basadas en datos.

La AMD Pensando Pollara 400 preparada para UEC, impulsada por el motor programable AMD P4, es la primera NIC de IA preparada para UEC de la industria. Es compatible con el software RDMA de próxima generación y está respaldada por un ecosistema abierto de redes. 

Tanto el AMD Pensando Salina DPU como el AMD Pensando Pollara 400 se están probando con los clientes en el cuarto trimestre de 2024 y están en camino de estar disponibles en la primera mitad de 2025. En efecto, durante el evento, expusieron Raj Subramaniyan, SVP Networking de Oracle Cloud Infratestructure; Ajay Apte, Fellow, IBM Cloud Infraestructure Services; Narayan Annamalal, General Manager, Head of Product Azure Networking; Darrick Horton, CEO de Tensorware; y Kevin Wollenweber,  SVP & General Manager, Datacenter & Service Provider Connectivity; y Jeremy Foster, SVP General Manager, Compute; ambos de Cisco

«Me siento increíblemente afortunada de ser parte de esta industria donde todo lo que hacemos significa tanto y es esencial para cada aspecto de nuestra vida diaria. Pueden contar con todos nosotros en AMD para seguir superando los límites de la computación de alto rendimiento y la inteligencia artificial, y esto apenas está comenzando», concluyó Lisa Su.

Autor

banner-web