El Pentágono informó a Anthropic que es un riesgo para la cadena de suministro.

El Pentágono otorgó el jueves una designación formal de riesgo en la cadena de suministro al laboratorio de inteligencia artificial Anthropic, limitando el uso de una tecnología que, según una fuente, estaba siendo utilizada para operaciones militares en Irán.
La etiqueta de «riesgo de la cadena de suministro», confirmada en una declaración de Anthropic, entra en vigencia de inmediato y prohíbe a los contratistas gubernamentales utilizar la tecnología de Anthropic en su trabajo para el ejército estadounidense. Pero las empresas aún pueden usar a Claude de Anthropic en otros proyectos no relacionados con el Pentágono, escribió el CEO Dario Amodei en el comunicado, y agregó que las restricciones solo se aplican al uso de Anthropic AI en contratos del Pentágono.
La designación de riesgo surge tras una disputa de meses sobre la insistencia de la compañía en implementar salvaguardias que, según el Departamento de Defensa, al que la administración Trump denomina Departamento de Guerra, fueron excesivas. En su declaración, Amodei reiteró que la compañía impugnaría la designación ante los tribunales. En los últimos días, Anthropic y el Pentágono han discutido posibles planes para que el Pentágono deje de usar a Claude, declaró Amodei en el comunicado del jueves. Ambas partes han conversado sobre cómo Anthropic podría seguir colaborando con el ejército sin desmantelar sus salvaguardas, añadió.
Amodei también se disculpó por un memorando interno publicado el miércoles por el sitio de noticias tecnológicas The Information. En el memorando, escrito originalmente el viernes pasado, Amodei afirmó que a los funcionarios del Pentágono no les gustaba la compañía en parte porque «no hemos elogiado a Trump como si fuera un dictador». La publicación del memorando interno se produjo mientras los inversores de Anthropic se apresuraban a contener el daño causado por las consecuencias de la disputa de la empresa con el Pentágono.
El Departamento de Defensa no respondió de inmediato a las solicitudes de comentarios.
La acción representó una reprimenda extraordinaria por parte de Estados Unidos contra una empresa tecnológica estadounidense que se adelantó a sus rivales en colaborar con el Pentágono. Esta medida se produce mientras el departamento sigue dependiendo de la tecnología de Anthropic para brindar apoyo a operaciones militares, incluso en Irán, según una persona familiarizada con el asunto. Es probable que Claude esté siendo utilizado para analizar inteligencia y ayudar con la planificación operativa.
Maven Smart Systems de Palantir, una plataforma de software que proporciona a los militares análisis de inteligencia y orientación de armas, utiliza múltiples indicaciones y flujos de trabajo que se crearon utilizando el código Claude de Anthropic, informó anteriormente Reuters. Anthropic fue el más agresivo de sus rivales al cortejar a los funcionarios de seguridad nacional estadounidenses. Sin embargo, la compañía y el Pentágono llevan meses en desacuerdo sobre cómo los militares pueden usar su tecnología en el campo de batalla. Este conflicto salió a la luz pública a principios de este año.
Anthropic se ha negado a dar marcha atrás en las prohibiciones impuestas a su IA Claude para impulsar armas autónomas y la vigilancia masiva en Estados Unidos. El Pentágono ha respondido, argumentando que debería poder usar esta tecnología según sea necesario, siempre que cumpla con la legislación estadounidense. La etiqueta de «riesgo para la cadena de suministro» otorga a Anthropic un estatus que Washington solía usar hasta ahora para adversarios extranjeros. Estados Unidos tomó medidas similares para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono.

Información de Karen Freifeld en Nueva York y Mike Stone en Washington DC; Edición de Mark Porter, Stephen Coates y Sam Holmes.

Fuente: reuters

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.