Microsoft está contratando ingenieros para trabajar en diseño de chips de I.A para su nube.

Microsoft está siguiendo el ejemplo de Google en el diseño de un procesador de computadora para la inteligencia artificial, de acuerdo con publicaciones recientes de trabajo.

A fines de marzo, Microsoft publicó al menos tres puestos de trabajo dentro de su división de nube pública Azure, en busca de candidatos para trabajar en las características de un chip AI. El siguiente mes, el equipo listó una vacante para un administrador de programa de silicio, y “un ingeniero para el código de software / hardware y la optimización para la aceleración de AI”.

Bajo el liderazgo del CEO Satya Nadella, Microsoft muestra que está dispuesta a gastar el dinero que se necesita para tener una nube con todas las funciones, ya que compite con Amazon Web Services y Google. Los procesadores especializados son una de las formas en que Microsoft puede demostrar que se toma en serio aumentar sus servicios de inteligencia artificial para las empresas dentro de su nube.

Google, que sigue a AWS y Microsoft en el mercado de la nube, promovió por primera vez la idea de un chip personalizado para AI en la nube. La compañía ahora está en la tercera iteración de su unidad de procesamiento de tensor (TPU), una alternativa a la unidad de procesamiento de gráficos (GPU) de Nvidia, que se ha convertido en el estándar de la industria inicial para realizar cargas de trabajo de inteligencia artificial.

Los TPU y GPU se pueden usar para entrenar redes neuronales artificiales, que pueden analizar grandes cantidades de datos, como fotos, y aprender a reconocer patrones. Después de recibir capacitación, pueden hacer predicciones basadas en lo que saben, ayudando a las computadoras a reconocer a diferentes personas o detectar la presencia de ciertos objetos.

Crecimiento azul

En una nota a los empleados en marzo, Nadella mencionó a AI 18 veces. Pero eso es en su mayoría futurista. La nube pública es uno de los principales negocios que impulsa el crecimiento en la actualidad, y Microsoft anunció la semana pasada que está gastando $ 7,500 millones en GitHub, agregando una herramienta de colaboración popular para los desarrolladores.

Los semiconductores no son completamente nuevos para Microsoft. La compañía ha tomado medidas para mejorar la computación de inteligencia artificial en su nube con chips FPGA (Field Programmable Gate Array), con algo llamado Project Brainwave. Hoy, esos chips están disponibles para entrenar y ejecutar modelos AI con el software de aprendizaje automático listo para usar de Azure. Y el año pasado Microsoft dijo que estaba construyendo un chip AI personalizado para la próxima versión de sus auriculares HoloLens de realidad mixta, aunque eso está fuera de su unidad en la nube.

Las nuevas vacantes de empleo no son parte del programa FPGA, dijo un vocero de Microsoft a CNBC, pero están relacionadas con el trabajo que hace la compañía en el diseño de su propio hardware en la nube, una iniciativa llamada Project Olympus.

“Ese grupo ha estado trabajando en el diseño de servidores, silicio e inteligencia artificial para permitir cargas de trabajo en la nube durante algún tiempo”, dijo el vocero en un comunicado.

Jason Zander, vicepresidente ejecutivo de Azure, hizo referencia a ese trabajo en una entrevista el mes pasado con Jon Fortt de CNBC.

“De hecho, diseñamos una gran cantidad de nuestro propio silicio que va a los centros de datos”, dijo Zander. Al mismo tiempo, Microsoft usa silicio de Intel y Nvidia en Azure.

Desde que Google presentó por primera vez el TPU, Alibaba y Apple han dicho que están trabajando en chips personalizados para AI. Algunas empresas de nueva creación también están creando nuevos procesadores.

Es un esfuerzo costoso. Patrick Moorhead, analista de Moor Insights & Strategy, estima que Google gastó entre 200 y 300 millones de dólares en su proyecto de TPU. Microsoft ha mostrado su disposición a gastar, reportando un récord de $ 3.5 mil millones en gastos de capital el último trimestre.

En una entrevista en abril con CNBC, a Doug Burger, un técnico de Microsoft que dirigió el trabajo de FPGA, se le preguntó si la compañía está trabajando en un chip de servidor de inteligencia artificial. Se negó a decir.

“Si quieres elegir la decisión económicamente racional, por supuesto que vas a ver las distintas opciones”, dijo Burger. “Hacemos el modelo y decimos, ‘¿Qué es lo correcto para nosotros?’

Por: Jordan Novet

Fuente: CNBC

 

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.