Un grupo de referencia de inteligencia artificial llamado MLCommons reveló el lunes los resultados de nuevas pruebas que determinan qué tan rápido el hardware de primera línea puede ejecutar modelos de IA.
Un chip de Nvidia Corp. obtuvo el mejor desempeño en las pruebas en un modelo de lenguaje grande, seguido de cerca por un semiconductor producido por Intel Corp.
El nuevo punto de referencia MLPerf se basa en un modelo de lenguaje grande con 6 mil millones de parámetros que resume los artículos de noticias de CNN. El punto de referencia simula la parte de «inferencia» del procesamiento de datos de IA, que impulsa el software detrás de las herramientas de IA generativa.
La principal presentación de Nvidia para el punto de referencia de inferencia se basa en ocho de sus chips insignia H100. Nvidia ha dominado el mercado de entrenamiento de modelos de IA, pero aún no ha capturado el mercado de inferencia.
«Lo que se ve es que estamos brindando un desempeño de liderazgo en todos los ámbitos, y nuevamente, brindando ese desempeño de liderazgo en todas las cargas de trabajo», dijo el director de marketing de computación acelerada de Nvidia, Dave Salvator.
El éxito de Intel se basa en sus chips Gaudi2 producidos por la unidad Habana que la compañía adquirió en 2019. El sistema Gaudi2 era aproximadamente un 10% más lento que el sistema de Nvidia.
«Estamos muy orgullosos de los resultados de la inferencia, ya que mostramos la ventaja de rendimiento de precios de Gaudi2», dijo el director de operaciones de Habana, Eitan Medina.
Intel dice que su sistema es más barato que el de Nvidia (aproximadamente el precio de los 100 sistemas de última generación de Nvidia), pero se negó a discutir el costo exacto del chip.
Nvidia se negó a discutir el costo de su chip. El viernes, Nvidia dijo que planeaba lanzar pronto una actualización de software que duplicaría el rendimiento mostrado en el punto de referencia MLPerf.
La unidad Google de Alphabet hizo un adelanto del rendimiento de la última versión de un chip personalizado que anunció en su conferencia de computación en la nube de agosto.
Información de Max A. Cherney en San Francisco; Edición de Leslie Adler
Fuente: reuters