OpenAI sigue adelante con su plan para reducir su dependencia de Nvidia para el suministro de chips mediante el desarrollo interno de su primera generación de silicio con inteligencia artificial.
El fabricante de ChatGPT está ultimando el diseño de su primer chip interno en los próximos meses y planea enviarlo para su fabricación a Taiwan Semiconductor Manufacturing Co, dijeron fuentes a Reuters. El proceso de enviar un primer diseño a una fábrica de chips se denomina «taping out». OpenAI y TSMC declinaron hacer comentarios. La actualización muestra que OpenAI está en camino de cumplir su ambicioso objetivo de producción en masa en TSMC en 2026. Una producción típica cuesta decenas de millones de dólares y se necesitarán aproximadamente seis meses para producir un chip terminado, a menos que OpenAI pague sustancialmente más por una fabricación acelerada. No hay garantía de que el silicio funcione en la primera producción y, en caso de falla, la empresa tendría que diagnosticar el problema y repetir el paso de producción.
Dentro de OpenAI, el chip enfocado en el entrenamiento se considera una herramienta estratégica para fortalecer la capacidad de negociación de OpenAI con otros proveedores de chips, dijeron las fuentes. Después del chip inicial, los ingenieros de OpenAI planean desarrollar procesadores cada vez más avanzados con capacidades más amplias con cada nueva iteración. Si el lanzamiento inicial se lleva a cabo sin problemas, el fabricante de ChatGPT podría producir en masa su primer chip de IA interno y, potencialmente, probar una alternativa a los chips de Nvidia a finales de este año.
El plan de OpenAI de enviar su diseño a TSMC este año demuestra que la startup ha avanzado rápidamente en su primer diseño, un proceso que a otros diseñadores de chips les puede llevar años más. Grandes empresas tecnológicas como Microsoft y Meta A pesar de los años de esfuerzo, las empresas chinas han tenido dificultades para producir chips satisfactorios. La reciente caída del mercado provocada por la startup china de inteligencia artificial DeepSeek también ha suscitado dudas sobre si se necesitarán menos chips para desarrollar modelos potentes en el futuro.
El chip está siendo diseñado por el equipo interno de OpenAI dirigido por Richard Ho, que se ha duplicado en los últimos meses a 40 personas, en colaboración con Broadcom Ho se unió a OpenAI hace más de un año procedente de Alphabet Google, donde ayudó a dirigir el programa de chips de inteligencia artificial personalizados del gigante de las búsquedas. Reuters fue el primero en informar sobre los planes de OpenAI con Broadcom el año pasado. El equipo de Ho es más pequeño que los esfuerzos a gran escala de gigantes tecnológicos como Google o Amazon Según fuentes de la industria con conocimiento de los presupuestos de diseño de chips, un nuevo diseño de chip para un programa ambicioso y de gran escala podría costar 500 millones de dólares por una sola versión de un chip. Esos costos podrían duplicarse para construir el software y los periféricos necesarios en torno a él.
Los creadores de modelos de IA generativa como OpenAI, Google y Meta han demostrado que cantidades cada vez mayores de chips conectados en centros de datos hacen que los modelos sean más inteligentes y, como resultado, tienen una demanda insaciable de chips. Meta ha dicho que gastará 60 mil millones de dólares en infraestructura de IA el próximo año y Microsoft ha dicho que gastará 80 mil millones de dólares en 2025. Actualmente, los chips de Nvidia son los más populares y tienen una participación de mercado de aproximadamente el 80%. OpenAI participa en el programa de infraestructura Stargate de 500 mil millones de dólares anunciado por el presidente estadounidense Donald Trump el mes pasado.
Pero el aumento de los costos y la dependencia de un único proveedor han llevado a clientes importantes como Microsoft, Meta y ahora OpenAI a explorar alternativas internas o externas a los chips de Nvidia. El chip de inteligencia artificial de OpenAI, si bien es capaz de entrenar y ejecutar modelos de inteligencia artificial, inicialmente se implementará a una escala limitada y principalmente para ejecutar modelos de inteligencia artificial, dijeron las fuentes. El chip tendrá un papel limitado dentro de la infraestructura de la empresa.
Para desarrollar un proyecto tan amplio como el programa de chips de inteligencia artificial de Google o Amazon, OpenAI tendría que contratar a cientos de ingenieros. TSMC fabrica el chip de IA de OpenAI utilizando su avanzada tecnología de proceso de 3 nanómetros. El chip cuenta con una arquitectura de matriz sistólica de uso común con memoria de gran ancho de banda (HBM), también utilizada por Nvidia para sus chips, y amplias capacidades de red, según dijeron las fuentes.
Reportaje de Anna Tong y Max A. Cherney en San Francisco y Krystal Hu en Nueva York; editado por Kenneth Li, Sam Holmes y Matthew Lewis
Fuente: reuters