Procesadores

NNP, DLBoost y Keem Bay, Nuevos chips Intel para IA y redes neuronales

Intel anunció nuevo hardware dedicado en su evento AI Summit el 12 de noviembre alejado del mercado masivo, NNP, DLBoost y Keem Bay. Estos productos son sin duda la culminación de más de tres años de trabajo desde las adquisiciones de Movidius y Nervana en la segunda mitad de 2016 y la creación de su Grupo AI Products, liderado por Naveen Rao, cofundador de Nervana.

NNP, DLBoost y Keem Bay, Nuevos chips Intel para IA y redes neuronales

DLBoost

Rao señaló que Intel ya es un gran actor en el sector de la IA y que sus ingresos por IA en 2019 superarán los 3.500 millones de dólares, frente a los más de 1.000 millones de dólares de 2017. Intel ya tiene distintos hardware para todos los frentes OpenVINO para IOt, FPGAs Agilex, Ice Lake en el PC, DLBoost de Cascade Lake, y aún más lejos, sus futuros gráficos discretos.

Procesadores: DLBoost

Keem Bay

Intel demostró la compatibilidad con bfloat16 en Cooper Lake de 56 núcleos que saldrá el año que viene como parte de su gama DLBoost de funciones de IA en sus procesadores. Bfloat16 es un formato numérico que alcanza una precisión similar a la del punto flotante de precisión única (FP32) en el entrenamiento de IA.

Intel no proporcionó una estimación de la mejora del rendimiento, pero sí afirmó que, a efectos de inferencia, Cooper Lake es 30 veces más rápido que Skylake-SP. En el lado PC, Ice Lake incorpora las mismas instrucciones de DLBoost AVX-512_VNNI que también están en Cascade Lake.

Movidius: VPU de Keem Bay

Keem Bay

Como parte de su estrategia hacia la inteligencia artificial, como cámaras inteligentes, robots, drones y VR/AR, Intel adquirió Movidius en 2016. Movidius llama a sus chips de baja potencia “vision processing units’’ (VPU). Presentan capacidades de procesamiento de señales de imagen (ISP), aceleradores de hardware, procesadores MIPS y procesadores vectoriales programables (VLIW) de 128 bits a los que llama núcleos SHAVE.

Visita nuestra guía sobre los mejores procesadores del mercado

Intel ha detallado ahora lo que llama la ‘Gen 3’ Intel Movidius VPU con el nombre en código Keem Bay. Según Intel, tiene un rendimiento de inferencia más de 10 veces superior al de la Myriad X y consume la misma cantidad de energía.

Nervana Neural Network Processors (NNP)

Nervana Neural Network Processors (NNP)

Intel tiene NNPs tanto para el entrenamiento como para la inferencia de redes neuronales profundas. El NNP-I de Intel para inferencia se basa en dos núcleos de Ice Lake Sunny Cove y doce núcleos de acelerador ICE. Intel afirma que ofrecerá un estupendo rendimiento por vatio y densidad de cálculo. En su factor de forma M.2, es capaz de 50 TOPS a 12W, lo que equivale a 4.8TOPS/W, como ya había anunciado. Intel reveló que el factor de forma de la tarjeta PCIe consume 75W y produce hasta 170 TOPS (con precisión INT8).

Intel reiteró su alta eficiencia de escalado casi lineal, del 95% para 32 tarjetas, en comparación con el 73% de Nvidia.

TE RECOMENDAMOS
AMD quiere evitar que el bug de Intel merme a sus procesadores

Intel tiene preparado un amplio surtido de chips para todos los frentes, IA, 5G, redes neuronales, conducción autónoma, etc, en un mercado que generara este año Ingresos estimados en 10.000 millones de dólares. Os mantendremos informados.

Fuente
tomshardware
Cargar más

Gustavo Gamarra

Soy operador de PC e instalador de redes informáticas , redactor y escritor en mis ratos libres. Amante de la tecnología, el cine, el fútbol y los videojuegos. Les escribo desde Buenos Aires, Argentina.
Los datos de carácter personal que nos facilite mediante este formulario quedarán registrados en un fichero de Miguel Ángel Navas Carrera, con la finalidad de gestionar los comentarios que realizas en este blog. La legitimación se realiza a través del consentimiento del interesado. Si no se acepta no podrás comentar en este blog. Puedes consultar Política de privacidad. Puede ejercitar los derechos de acceso, rectificación, cancelación y oposición en info@profesionalreview.com
Botón volver arriba
Cerrar