Estados Unidos y Gran Bretaña anuncian asociación para seguridad y pruebas de IA

Estados Unidos y Gran Bretaña anunciaron el lunes una nueva asociación en la ciencia de la seguridad de la inteligencia artificial, en medio de crecientes preocupaciones sobre las próximas versiones de próxima generación.
La Secretaria de Comercio, Gina Raimondo, y la Secretaria de Tecnología británica, Michelle Donelan, firmaron un memorando de entendimiento en Washington para desarrollar conjuntamente pruebas de modelos avanzados de IA, tras los compromisos anunciados en una Cumbre de Seguridad de la IA celebrada en Bletchley Park en noviembre. «Todos sabemos que la IA es la tecnología que define a nuestra generación», afirmó Raimondo. «Esta asociación acelerará el trabajo de nuestros dos institutos en todo el espectro para abordar los riesgos de nuestras preocupaciones de seguridad nacional y las preocupaciones de nuestra sociedad en general». Gran Bretaña y Estados Unidos se encuentran entre los países que establecen institutos de seguridad de IA dirigidos por el gobierno.
Gran Bretaña dijo en octubre que su instituto examinaría y probaría nuevos tipos de IA, mientras que Estados Unidos dijo en noviembre que estaba lanzando su propio instituto de seguridad para evaluar los riesgos de los llamados modelos de IA de frontera y que ahora está trabajando con 200 empresas y entidades . Según la asociación formal, Gran Bretaña y Estados Unidos planean realizar al menos un ejercicio de prueba conjunto en un modelo accesible al público y están considerando explorar intercambios de personal entre los institutos. Ambos están trabajando para desarrollar asociaciones similares con otros países para promover la seguridad de la IA. «Este es el primer acuerdo de este tipo en cualquier parte del mundo», dijo Donelan. «La IA ya es una fuerza extraordinaria para el bien en nuestra sociedad y tiene un enorme potencial para abordar algunos de los mayores desafíos del mundo, pero sólo si somos capaces de afrontar esos riesgos».
La IA generativa, que puede crear texto, fotos y videos en respuesta a indicaciones abiertas, ha generado entusiasmo y temores de que pueda volver obsoletos algunos trabajos, alterar las elecciones y potencialmente dominar a los humanos y causar efectos catastróficos.
En una entrevista conjunta con Reuters el lunes, Raimondo y Donelan necesitaban una acción conjunta urgente para abordar los riesgos de la IA.
«El tiempo es esencial porque el próximo conjunto de modelos está a punto de ser lanzado, que será mucho, mucho más capaz», dijo Donelan. «Nos centramos en las áreas que estamos dividiendo, conquistando y realmente especializándonos». Raimondo dijo que plantearía cuestiones de IA en una reunión del Consejo de Comercio y Tecnología entre Estados Unidos y la UE en Bélgica el jueves. La administración Biden planea anunciar pronto incorporaciones a su equipo de inteligencia artificial, dijo Raimondo. «Estamos aprovechando todos los recursos del gobierno de Estados Unidos». Ambos países planean compartir información clave sobre capacidades y riesgos asociados con modelos y sistemas de IA e investigaciones técnicas sobre seguridad y protección de la IA. En octubre, Biden firmó una orden ejecutiva que tiene como objetivo reducir los riesgos de la IA. En enero, el Departamento de Comercio dijo que proponía exigir a las empresas estadounidenses de nube que determinaran si entidades extranjeras están accediendo a centros de datos estadounidenses para entrenar modelos de IA.
Gran Bretaña dijo en febrero que gastaría más de 100 millones de libras (125,5 millones de dólares) para lanzar nueve nuevos centros de investigación y capacitar a los reguladores en IA sobre esta tecnología. Raimondo dijo que estaba especialmente preocupada por la amenaza de la IA aplicada al bioterrorismo o a una simulación de guerra nuclear. «Esas son las cosas cuyas consecuencias podrían ser catastróficas, por lo que realmente tenemos que tener tolerancia cero para que algunos de estos modelos se utilicen para esa capacidad», dijo.

Informe de David Shepardson; Edición de Richard Chang y Stephen Coates

Fuente: reuters

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.