La administración Biden está preparada para abrir un nuevo frente en su esfuerzo por salvaguardar la IA estadounidense de China con planes preliminares para colocar barreras alrededor de los modelos de IA más avanzados, el software central de los sistemas de inteligencia artificial como ChatGPT. , dijeron las fuentes.
El Departamento de Comercio está considerando un nuevo impulso regulatorio para restringir la exportación de modelos de IA propietarios o de código cerrado, cuyo software y los datos en los que se entrena se mantienen en secreto, dijeron tres personas familiarizadas con el asunto. Cualquier acción complementaría una serie de medidas implementadas durante los últimos dos años para bloquear la exportación de sofisticados chips de IA a China en un esfuerzo por frenar el desarrollo de tecnología de punta por parte de Beijing con fines militares. Aun así, será difícil para los reguladores seguir el ritmo de los rápidos avances de la industria. El Departamento de Comercio declinó hacer comentarios. La embajada de China en Washington no respondió de inmediato a una solicitud de comentarios.
Actualmente, nada detiene a los gigantes estadounidenses de la IA como Microsoft OpenAI, respaldado por Alphabet Google DeepMind y su rival Anthropic, que han desarrollado algunos de los modelos de inteligencia artificial de código cerrado más poderosos, hasta venderlos a casi cualquier persona en el mundo sin supervisión gubernamental. A los investigadores del gobierno y del sector privado les preocupa que los adversarios estadounidenses puedan utilizar los modelos, que extraen grandes cantidades de texto e imágenes para resumir información y generar contenido, para lanzar ciberataques agresivos o incluso crear potentes armas biológicas. Para desarrollar un control de exportación de modelos de IA, las fuentes dijeron que Estados Unidos podría recurrir a un umbral contenido en una orden ejecutiva de IA emitida en octubre pasado que se basa en la cantidad de potencia informática necesaria para entrenar un modelo. Cuando se alcanza ese nivel, un desarrollador debe informar sus planes de desarrollo del modelo de IA y proporcionar los resultados de las pruebas al Departamento de Comercio.
Ese umbral de potencia informática podría convertirse en la base para determinar qué modelos de IA estarían sujetos a restricciones de exportación, según dos funcionarios estadounidenses y otra fuente informada sobre las discusiones. Se negaron a ser identificados porque los detalles no se han hecho públicos. Si se utiliza, probablemente sólo restringiría la exportación de modelos que aún no se han lanzado, ya que se cree que ninguno ha alcanzado el umbral todavía, aunque se considera que el Gemini Ultra de Google está cerca, según EpochAI, un instituto de investigación que sigue las tendencias de la IA. . La agencia está lejos de finalizar una propuesta de reglamentación, subrayaron las fuentes. Pero el hecho de que se esté considerando una medida de este tipo muestra que el gobierno estadounidense está tratando de cerrar las brechas en su esfuerzo por frustrar las ambiciones de IA de Beijing, a pesar de los serios desafíos para imponer un régimen regulatorio fuerte a esta tecnología en rápida evolución.
Mientras la administración Biden analiza la competencia con China y los peligros de la IA sofisticada, los modelos de IA «son obviamente una de las herramientas, uno de los posibles puntos de estrangulamiento en los que hay que pensar aquí», dijo Peter Harrell, ex Consejo de Seguridad Nacional. oficial. «Queda por ver si, de hecho, en la práctica, se puede convertirlo en un cuello de botella controlable para las exportaciones», añadió.
¿ARMAS BIOLÓGICAS Y ATAQUES CIBERNÉTICOS?
La comunidad de inteligencia, los grupos de expertos y los académicos estadounidenses están cada vez más preocupados por los riesgos que plantea el hecho de que actores extranjeros malintencionados obtengan acceso a capacidades avanzadas de IA. Investigadores de Gryphon Scientific, y Rand Corporation, Señaló que los modelos avanzados de IA pueden proporcionar información que podría ayudar a crear armas biológicas. El Departamento de Seguridad Nacional dijo que los ciberataques probablemente utilizarían la IA para «desarrollar nuevas herramientas» que «permitan ciberataques a mayor escala, más rápidos, eficientes y más evasivos» en su evaluación de amenazas nacionales de 2024.
Cualquier nueva norma de exportación también podría afectar a otros países, dijo una de las fuentes. «La explosión potencial del uso y explotación [de la IA] es radical y, de hecho, nos está costando mucho seguir eso», dijo Brian Holmes, funcionario de la Oficina del Director de Inteligencia Nacional, en una reunión sobre control de exportaciones en marzo, señalando el avance de China como una preocupación particular.
Represión de la IA
Para abordar estas preocupaciones, Estados Unidos ha tomado medidas para detener el flujo de chips de IA estadounidenses y las herramientas para fabricarlos hacia China. También propuso una regla para exigir que las empresas de nube estadounidenses informen al gobierno cuando los clientes extranjeros utilizan sus servicios para entrenar potentes modelos de IA que podrían usarse para ataques cibernéticos. Pero hasta ahora no se ha abordado los modelos de IA en sí. Alan Estevez, que supervisa la política de exportaciones de EE. UU. en el Departamento de Comercio, dijo en diciembre que la agencia estaba analizando opciones para regular las exportaciones de modelos de lenguaje grande (LLM) de código abierto antes de buscar comentarios de la industria.
Tim Fist, experto en políticas de IA del grupo de expertos CNAS con sede en Washington DC, dice que el umbral «es una buena medida temporal hasta que desarrollemos mejores métodos para medir las capacidades y los riesgos de los nuevos modelos». El umbral no está escrito en piedra. Una de las fuentes dijo que Comercio podría terminar con un piso más bajo, junto con otros factores, como el tipo de datos o los usos potenciales del modelo de IA, como la capacidad de diseñar proteínas que podrían usarse para fabricar un arma biológica.
Independientemente del umbral, las exportaciones de modelos de IA serán difíciles de controlar. Muchos modelos son de código abierto, lo que significa que quedarían fuera del ámbito de los controles de exportación que se están considerando. Incluso imponer controles a los modelos patentados más avanzados resultará desafiante, ya que los reguladores probablemente tendrán dificultades para definir los criterios correctos para determinar qué modelos deberían controlarse, dijo Fist, señalando que China probablemente esté sólo dos años por detrás de Estados Unidos en desarrollando su propio software de IA.
Información de Alexandra Alper; Informe adicional de Karen Freifeld y Anna Tong; Edición de Chris Sanders y Anna Driver
Fuente: reuters

