Nvidia requiere que sus GPU (unidades de procesamiento gráfico) manejen la inteligencia artificial en las computadoras y diversas áreas de procesamiento paralelo con una gran resistencia sus centros de datos.
La compañía tiene listo en marcha el programa que permite que haga fácil para sus socios de fabricación para empaquetar los GPU en muchos superordenadores a nivel mundial que contienen avanzada inteligencia artificial.
Nvidia HGX es un tipo de receta inicial para fabricantes de diseños ODM como: Foxconn, Inventec, Wistron, entre otros para empaquetar el GPU en centro de datos según su actual director general de informática avanzada de Nvidia Ian Buck.
El CEO de Nvidia Jen-Hsun Huang tiene un gran anuncio del HGX en la feria tecnológica Computex llevada a cabo en la ciudad de Taiwán.
HGX durante todos estos años se ha utilizado o ha sentado las bases de la iniciativa de Microsoft Project Olympus, y aquellos superordenadores Nvidia DGX-1TM con I.A. El uso del ODM puede realizar diseño de los sistemas basados en GPU para centros de datos de una escala de mayor magnitud.
Los ingenieros de Nvidia van a trabajar con ODM en el momento oportuno para reducir en su mayor reducción la cantidad de tiempo que requiere la implantación. La demanda global de recursos como la inteligencia artificial ha mostrado un exponencial crecimiento en los últimos años.
Mercados y rendimientos
La adopción en el mercado y los rendimientos que existen en la plataforma de cómputos de Nvidia han hecho de que actualmente las mejores empresas de escalas de gran magnitud utilicen aceleradores GPU de Nvidia en todos sus centros de datos.
El crecimiento de la I.A (gracias a su deep learning) y como máquina de aprendizaje (machine learning) está impulsando enérgicamente su intereses en las GPU existentes en la nube. Todos los proveedores de computación en la nube como por ejemplo la gran empresa Google, Amazon, Alibaba, entre otros.
La plataforma HGX fue construida por Nvidia para cumplir con las múltiples tareas a una escala mayor. HGX tiene la capacidad de realizar combinaciones entre GPU y CPU (unidades centrales de procesamiento) en diversas formas de computación de rendimientos mayores, aprendizajes con mayor amplitud y la constante búsqueda de aprendizaje.
Por último se están definiendo la estructura de la I.A en la nube para que se puedan estandarizar en todo el mundo, actualmente Taiwán ha estado en el mercado construyendo servidores y permitirá servir como diferencia de rendimiento masivo.