La brecha que le costó al genio de la inteligencia artificial Sam Altman su puesto de director ejecutivo en OpenAI refleja una diferencia fundamental de opinión sobre la seguridad, en términos generales, entre dos bandos que desarrollan el software que altera el mundo y reflexionan sobre su impacto social. .
Por un lado están aquellos, como Altman, que ven el rápido desarrollo y, especialmente, el despliegue público de la IA como esencial para poner a prueba y perfeccionar la tecnología. Del otro lado están quienes dicen que el camino más seguro a seguir es desarrollar y probar completamente la IA en un laboratorio primero para garantizar que sea, por así decirlo, segura para el consumo humano.
Altman, de 38 años, fue despedido el viernes de la empresa que creó el popular chatbot ChatGPT. Para muchos, era considerado el rostro humano de la IA generativa.
Algunos advierten que el software hiperinteligente podría volverse incontrolable, lo que llevaría a una catástrofe, una preocupación entre los trabajadores tecnológicos que siguen un movimiento social llamado «altruismo efectivo», que creen que los avances de la IA deberían beneficiar a la humanidad. Entre quienes comparten esos temores se encuentra Ilya Sutskever de OpenAI, el científico jefe y miembro de la junta que aprobó la destitución de Altman.
Ha surgido una división similar entre los desarrolladores de vehículos autónomos –también controlados por IA– que dicen que deben circular por las densas calles urbanas para comprender plenamente las facultades y debilidades de los vehículos; mientras que otros instan a la moderación, preocupados de que la tecnología presente riesgos incognoscibles.
Esas preocupaciones sobre la IA generativa llegaron a un punto crítico con el sorpresivo despido de Altman, quien también era cofundador de OpenAI. IA generativa es el término para el software que puede generar contenido coherente, como ensayos, códigos de computadora e imágenes fotográficas, en respuesta a indicaciones simples. La popularidad de ChatGPT de OpenAI durante el año pasado ha acelerado el debate sobre la mejor manera de regular y desarrollar el software.
«La pregunta es si se trata simplemente de otro producto, como las redes sociales o las criptomonedas, o si se trata de una tecnología que tiene la capacidad de superar a los humanos y volverse incontrolable», dijo Connor Leahy, director ejecutivo de ConjectureAI y defensor de la seguridad. “¿El futuro pertenece entonces a las máquinas?”
Según se informa, Sutskever sintió que Altman estaba poniendo el software de OpenAI demasiado rápido en manos de los usuarios, comprometiendo potencialmente la seguridad.
«No tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta», escribieron él y un diputado en una publicación de blog en julio. «Los humanos no podrán supervisar de forma fiable sistemas de IA mucho más inteligentes que nosotros».
Según se informa, fue de particular preocupación que OpenAI anunció una serie de nuevos productos disponibles comercialmente en su evento para desarrolladores a principios de este mes, incluida una versión de su software ChatGPT-4 y los llamados agentes que funcionan como asistentes virtuales.
Sutskever no respondió a una solicitud de comentarios.
Muchos tecnólogos consideran que el destino de OpenAI es fundamental para el desarrollo de la IA. Las discusiones durante el fin de semana para reinstalar a Altman fracasaron, frustrando las esperanzas entre los acólitos del ex CEO.
El lanzamiento de ChatGPT en noviembre pasado provocó un frenesí de inversiones en empresas de inteligencia artificial, incluidos 10 mil millones de dólares de Microsoft para OpenAI y miles de millones más para otras nuevas empresas, incluidas Alphabet y Amazon.com.
Eso puede ayudar a explicar la explosión de nuevos productos de IA a medida que empresas como Anthropic y ScaleAI compiten para mostrar el progreso a los inversores. Mientras tanto, los reguladores están tratando de seguir el ritmo del desarrollo de la IA, incluidas las directrices de la administración Biden y el impulso de una “ autorregulación obligatoria ” por parte de algunos países mientras la Unión Europea trabaja para promulgar una amplia supervisión del software.
Si bien la mayoría utiliza software de IA generativa, como ChatGPT, para complementar su trabajo, como escribir resúmenes rápidos de documentos extensos, los observadores desconfían de las versiones que pueden surgir conocidas como “inteligencia general artificial” o AGI, que podrían realizar tareas cada vez más complicadas sin cualquier incitación. Esto ha generado preocupaciones de que el software pueda, por sí solo, apoderarse de los sistemas de defensa, crear propaganda política o producir armas.
OpenAI se fundó como una organización sin fines de lucro hace ocho años, en parte para garantizar que sus productos no estuvieran impulsados por la obtención de ganancias que pudieran llevarlo por una pendiente resbaladiza hacia un AGI peligroso, lo que se conoce en los estatutos de la compañía como cualquier amenaza de «dañar» a la humanidad o concentrar indebidamente el poder”. Pero desde entonces, Altman ayudó a crear una entidad con fines de lucro dentro de la empresa con el fin de recaudar fondos y otros fines.
A última hora del domingo, OpenAI nombró director ejecutivo interino a Emmett Shear , ex director de la plataforma de transmisión Twitch. En septiembre abogó en las redes sociales por una «desaceleración» del desarrollo de la IA. «Si ahora estamos a una velocidad de 10, la pausa se reduce a 0. Creo que deberíamos aspirar a un 1-2», escribió.
Las razones precisas detrás del derrocamiento de Altman aún no estaban claras hasta el lunes. Pero es seguro concluir que OpenAI enfrenta grandes desafíos en el futuro.
Informe de Greg Bensinger en San Francisco Editado por Kenneth Li y Matthew Lewis
Fuente: reuters