ProcesadoresTutoriales

IPU (Infraestructure Processing Unit): qué es y para qué sirve

CPU, FPU, PPU, GPU, IPU, NPU, DPU,… cada vez existen más unidades de procesamiento para acelerar tareas de las que antes solo se encargaba la CPU. Desde los primeros co-procesadores o FPUs, hasta los aceleradores gráficos, pasando por las últimas unidades que están llegando al sector HPC, como son la IPU y DPU.

*No confundir con una IPU, o Intelligence Processing Unit, que es una unidad especialmente dedicada a acelerar las aplicaciones de IA.

Intel y NVIDIA los primeros en unirse al juego de las IPUs y DPUs respectivamente

intel nvidia

Y es que las unidades de procesamiento convencionales cada vez cuesta más desarrollarlas para extraer suficiente rendimiento como para dar saltos importantes. Por eso se está mirando hacia otros aspectos como la IA, o estos nuevos elementos que podrían ayudar. De hecho, las principales empresas ya están desarrollando sus propios dispositivos.

Intel ha lanzado la IPU (Unidad de Procesamiento de Infraestructura) que, al igual que la SmartNIC, está diseñada para mejorar la computación, las redes y el almacenamiento, liberando a la CPU de los ordenadores. Una IPU es un componente clave en las arquitecturas informáticas, que busca delegar tareas fuera de la CPU principal de los ordenadores para mejorar las redes, la computación y el almacenamiento. Una IPU está diseñada para descargar las CPUs principales dentro de los centros de datos y en el borde, lo que permite un rendimiento predecible y eficiente de las aplicaciones, y proporciona capacidades de virtualización mejoradas que buscan los CSP y los operadores.

Con la IPU, el proveedor de la nube puede manejar con seguridad las funciones de la infraestructura, mientras que da a sus clientes el control total sobre las funciones de la CPU y la memoria del sistema. Con una IPU, los clientes pueden aprovechar mejor los recursos a través de una solución segura, estable y programable, que proporciona mayor seguridad y aislamiento tanto a los proveedores de servicios como a los huéspedes, según Intel.

Los centros de datos en el objetivo

sistemas operativos de servidores

Intel podrá expandiendo rápidamente su alcance en el mercado de los centros de datos en la nube, desarrollando IPUs para acelerar las aplicaciones emergentes de gran ancho de banda que se componen utilizando arquitecturas basadas en microservicios habilitadas por los centros de datos. La compañía también dispondrá de marcos de software abiertos diseñados para atender mejor las necesidades de los clientes y mejorar la eficacia y la gestión de los centros de datos. Intel señaló que ha trabajado con la comunidad para facilitar el acceso de los desarrolladores a la tecnología y ayudar a los clientes a crear software y servicios para la orquestación en la nube.

Intel expuso su hoja de ruta para el desarrollo de IPU, y detalló por qué su cartera de dispositivos sería una parte importante de sus planes para el centro de datos. Con esa hoja de ruta, Intel dijo que planea construir redes programables de extremo a extremo, mediante el despliegue de un conjunto completo de plataformas para sus IPUs, que se basan en Field Programmable Gate Arrays (FPGAs) y Application Specific Integrated Circuits (ASICs). De hecho, Intel afirmó que, según la hoja de ruta desvelada, lanzará más plataformas IPU y ASIC personalizados construidos sobre las FPGA.

Intel apuesta por que el futuro de las operaciones de los centros de datos dependa de servidores cada vez más potentes que ejecuten CPUs programadas por ASICs, y apuesta a lo grande por el desarrollo de Unidades de Procesamiento de Infraestructura (IPUs), que son dispositivos de red programables propios de Intel diseñados para reducir los gastos generales y desbloquear el rendimiento de las CPUs de Intel. Y esto estará apoyado en los ASICs/FPGAs de la compañía (de ahí el interés de la compra de Altera o de Xilinx por parte de AMD)con las unidades de procesamiento de infraestructuras (IPU) se ha puesto de manifiesto esta semana en el evento Intel Vision, en el que el fabricante de chips ha presentado sus próximos dispositivos, destinados a alcanzar los 400 Gbit/s y los 800 Gbit/s. Presentada el año pasado en el Día de la Arquitectura Intel, la Mt. Morgan es la primera IPU de Intel que incorpora un ASIC.

FPGA + ASIC = Altera + Intel = IPU

Intel Xeon

La IPU inicial de Intel combinaba CPUs Xeon y FPGAs, pero con el tiempo se transformaría en un ASIC de alta potencia, configurable y controlado mediante el software IPDK (Open System-Based Infrastructure Programmer Development Kit) de la compañía. La IPU de Intels está habilitada por una base alimentada por software de código abierto, incluido el Kit de Desarrollo de Programadores de Infraestructura (IPDK), que se basa en el historial de participación abierta de la compañía en SPDK, DPDK y P4. Las IPUs de Intel ofrecen una aceleración inteligente de la infraestructura, seguridad, gestión y aislamiento a nivel de sistema, infraestructura de software compartida y claves de hardware/software programable que satisfacen las más altas prioridades de los clientes.

Una IPU es un dispositivo de red programable que orquesta de forma inteligente los recursos de infraestructura a nivel de sistema, acelerando de forma segura estas funciones dentro de un centro de datos. Como hemos visto con AWS Nitro Layer, las IPUs son mejores en la virtualización, acelerando de forma segura las funciones de almacenamiento, red y seguridad.

Virtualización, el otro pilar central de los centros de datos

servidor basado soc arquitectura arm

Intel afirma que los proveedores de nube y comunicaciones podrían avanzar hacia una arquitectura de almacenamiento y red totalmente virtualizada, manteniendo tanto un mayor rendimiento y previsibilidad como un mayor grado de control. Esencialmente, el proveedor de infraestructura aprovecharía un tejido de red para proporcionar recursos escalables a terceros, que podrían no ser de confianza, ejecutando aplicaciones en los centros de datos, de forma compuesta.

Las cargas de trabajo de infraestructura son ampliamente aplicables a muchos, si no a todos, los casos de uso de los centros de datos, y el uso de Intel Mount Evans para esas cargas de trabajo ofrecería importantes ventajas de coste total de propiedad debido al hardware acelerador muy flexible para cosas como vSwitch, y el uso de núcleos más pequeños y eficientes para las aplicaciones de infraestructura. En conjunto, el diseño de Intels Mount Evans es capaz de satisfacer las necesidades de infraestructura de muchos centros de datos, y debería ofrecer una importante ventaja en el coste total de propiedad.

Al permitir cosas como la virtualización completa del hardware, proporcionar interfaces NVMe nativas en las IPU y soportar la emulación de dispositivos, Mount Evans proporciona un gancho que permite al proveedor de servicios utilizar el mismo modelo de servicio para los hosts Bare Metal que para las VM y los contenedores. El aprovisionamiento, combinado con la habilitación de casos de uso emergentes en todo el centro de datos, hace que el uso de Intels Mount Evans como IPU sea una opción inteligente para el procesamiento de su infraestructura. Las IPUs en general, y Mount Evans en particular, ofrecen un beneficio de rendimiento convincente sobre la ejecución de una carga de trabajo de infraestructura en la CPU.

Otro componente central de la arquitectura de la IPU es la integración nativa de NVMe (incluyendo Over Fabrics), aprovechando la experiencia de Intels en la pila Optane NVMe de Intel, de altísimo rendimiento, integrada directamente en la IPU. La solución IPU de Intel aborda directamente lo que podría describirse como un impuesto de computación para los microservicios, al acelerar las funciones de infraestructura, incluyendo la virtualización del almacenamiento, la virtualización de la red y la seguridad a través de aceleradores de protocolo especializados, y al liberar los núcleos de la CPU, trasladando las funciones de almacenamiento y de red que antes se realizaban en software en la CPU a la IPU. La IPU de Intels está diseñada para aumentar la utilización de los CC, al tiempo que permite el posicionamiento dinámico de la carga de trabajo, y para permitir a los proveedores de la nube configurar la implementación de las funciones de infraestructura al nivel de eficiencia del software.

Espero que el posicionamiento competitivo de Intels IPU se fortalezca a medida que extienda la tecnología SmartNIC existente de Intel, desplegada en las plataformas de servidor de Intels, para descargar y acelerar las pilas de red y almacenamiento a través de los servicios en la nube. Creo que la decisión estratégica de Intel de alinear el desarrollo de la cartera de IPU para alimentar directamente a los hiperescaladores demostrará ser un diferenciador crítico en el espacio de la infraestructura del centro de datos. Intel se encuentra entre la creciente lista de proveedores -incluidos Nvidia, AWS y AMD- que trabajan en la creación de NIC y DPU inteligentes que permiten servicios de nube, computación, red, almacenamiento y seguridad definidos por software y diseñados para desplegarse rápidamente en el borde, en la colocación o en las redes de los proveedores.

Conclusión acerca de IPU o Infraestructure Processing Unit

Con el lanzamiento conjunto de la CPU, las empresas esperan simplificar la capacidad de los centros de datos, y especialmente de los proveedores de la nube, para desplegar rápida y fácilmente servicios basados en la nube a los clientes, sin incurrir en grandes costes de infraestructura. El procesador se despliega a siete nanómetros de fabricación y utiliza una arquitectura de alta eficiencia de la división Habana Labs de Intel, lo que permite a los clientes un aprendizaje de patrones y una inferencia más potentes para aplicaciones de visión por ordenador y lenguaje natural en los centros de datos. Aquí vemos a Intel (en una excelente diapositiva) mostrando CPUs, GPUs, almacenamiento, CPUs de IA/ML y otros aceleradores XPUs unidos a las IPUs de Intel, y luego puestos a disposición a través de un tejido de red.

Isaac Romero Torres

Más de una década trabajando en el ámbito de la investigación sobre arquitecturas y microarquitecturas de CPUs, de la electrónica, la lógica digital, de los sistemas operativos Unix (con los que trabajé como asesor para algunas empresas), programación de MCUs, PLCs, hacking, etc.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com
Botón volver arriba