Jose C. Rivero en IT - Information Technology, Informáticos, Informática y Tecnología Gerente Comercial (CMO) 4/7/2016 · 1 min de lectura · +600

Intel afina su Megachip para la era 'machine learning'

Intel afina su Megachip para la era 'machine learning'La compañía prepara el desembarco de su nueva familia de chips adaptada a la era del aprendizaje automático, donde competirá con otras soluciones del mercado como las TPU de Google o las GPU de Nvidia.

Intel quiere seguir asumiendo su rol de líder en el nuevo escenario tecnológico para el que se pronostica un auténtico ‘boom’ de chips para tendencias como IoT, Cloud, Big Data y tecnologías que lo cambiarán todo, asociadas al ‘machine learning’ y el tratamiento del dato. Sin embargo, la compañía debe acelerar sus pautas de innovación, puesto que ya no será suficiente con su actual modelo de desarrollo de dos fases conocidas como Tick Tock, optimizando los procesos de fabricación y reduciendo el área de sus transistores en la primera de ellas, y rediseñando la arquitectura del procesador en la segunda fase. La competencia aprieta y el mercado demanda ciclos de desarrollo mucho más ágiles.

La compañía se ha percatado de esta necesidad y se ha puesto en marcha en la evolución de los chips de PC para evolucionar el silicio dirigido a centros de datos e IoT. Ahora sabemos que los modelos Xeon Phi van a contar con nuevas características ‘machine learning’, según ha destacado recientemente Nidhi Chappell, director de aprendizaje automático de Intel. Más allá de su definición, estos chips mejorarán su comportamiento con el nuevo software, entrenado para tareas como el reconocimiento de imágenes o el análisis de datos de manera mucho más eficiente.

Intel no ha desvelado cuando serán añadidas estas nuevas características, pero la próxima versión de Xeon Phi, prevista para el año 2018, podría incluir estas mejoras, adoptando nuevas instrucciones preparadas para el aprendizaje automático de la máquina. Se trata de un procesador con nombre en código Knights Landing que cuenta con hasta 72 núcleos de CPU. El chip todavía está siendo probado pero la compañía cree que puede superar a las GPU de otros fabricantes. Podría estar formada por una CPU principal, acompañada de un coprocesador con el fin de mejorar el rendimiento en supercomputación. El Xeon Phi reduce la necesidad de extraer los datos, dado que muchas de las tareas de aprendizaje automático se llevan a cabo hoy en día por parte de la GPU. Google anunció el pasado mes de mayo su modelo TPU (Tensor Processing Unit) de similares características a la GPU de Nvidia.

Chappell comenta que Intel MIC puede ser encapsulado con conexiones internas de alta velocidad que favorecerán su uso en entornos ‘machine learning’. Intel está intentando enlazar sus Xeon Phi con el OmniPatc