OpenAI, fabricante de ChatGPT, dice que se está duplicando para evitar que la IA «se vuelva deshonesta»

El creador de ChatGPT, OpenAI, planea invertir recursos significativos y crear un nuevo equipo de investigación que buscará garantizar que su inteligencia artificial siga siendo segura para los humanos, utilizando eventualmente la IA para supervisarse a sí misma, dijo el miércoles.

«El vasto poder de la superinteligencia podría… conducir a la pérdida de poder de la humanidad o incluso a la extinción humana», escribieron en una publicación de blog el cofundador de OpenAI, Ilya Sutskever, y el jefe de alineación, Jan Leike . «Actualmente, no tenemos una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se vuelva deshonesta».

La IA superinteligente, sistemas más inteligentes que los humanos, podría llegar esta década, predijeron los autores de la publicación del blog. Los humanos necesitarán mejores técnicas que las disponibles actualmente para poder controlar la IA superinteligente, de ahí la necesidad de avances en la llamada «investigación de alineación», que se enfoca en garantizar que la IA siga siendo beneficiosa para los humanos, según los autores.

OpenAI, respaldado por Microsoft, está dedicando el 20% de la potencia de cómputo que ha asegurado durante los próximos cuatro años para resolver este problema, escribieron. Además, la empresa está formando un nuevo equipo que se organizará en torno a este esfuerzo, denominado equipo de superalineación.

El objetivo del equipo es crear un investigador de alineación de IA de «nivel humano» y luego escalarlo a través de grandes cantidades de poder de cómputo. OpenAI dice que eso significa que entrenarán los sistemas de IA utilizando retroalimentación humana, entrenarán los sistemas de IA para ayudar a la evaluación humana y finalmente entrenarán los sistemas de IA para que realmente hagan la investigación de alineación.

El defensor de la seguridad de la IA, Connor Leahy, dijo que el plan era fundamentalmente defectuoso porque la IA inicial a nivel humano podría volverse loca y causar estragos antes de que pudiera verse obligada a resolver los problemas de seguridad de la IA.

«Tienes que resolver la alineación antes de construir inteligencia a nivel humano, de lo contrario, por defecto no la controlarás», dijo en una entrevista. «Personalmente, no creo que este sea un plan particularmente bueno o seguro».

Los peligros potenciales de la IA han sido una prioridad tanto para los investigadores de IA como para el público en general. En abril, un grupo de líderes y expertos de la industria de la IA firmaron una carta abierta pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes que el GPT-4 de OpenAI, citando riesgos potenciales para la sociedad. Una encuesta de mayo de Reuters/Ipsos encontró que más de dos tercios de los estadounidenses están preocupados por los posibles efectos negativos de la IA y el 61% cree que podría amenazar a la civilización.

Información de Anna Tong en San Francisco; editado por Kenneth Li y Rosalba O’Brien
Fuente: reuters

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.