El grupo de derechos digitales EDRI advirtió contra las lagunas para el uso de la tecnología en excepciones de seguridad pública.
El reconocimiento facial y otras aplicaciones de inteligencia artificial de alto riesgo enfrentarán restricciones estrictas bajo las nuevas reglas reveladas por la Unión Europea que amenazan con fuertes multas para las empresas que no cumplan.
La Comisión Europea, el órgano ejecutivo del bloque, propuso el miércoles medidas que prohibirían ciertas aplicaciones de inteligencia artificial en la UE, incluidas aquellas que explotan a grupos vulnerables, despliegan técnicas subliminales o puntúan el comportamiento social de las personas.
El reconocimiento facial es una forma particularmente controvertida de IA. Los grupos de libertades civiles advierten sobre los peligros de la discriminación o las identidades erróneas cuando las fuerzas del orden utilizan la tecnología, que a veces identifica erróneamente a mujeres y personas con tonos de piel más oscuros.
El grupo de derechos digitales EDRI advirtió contra las lagunas para el uso de la tecnología con excepciones de seguridad pública.
Otras aplicaciones de alto riesgo que podrían poner en peligro la seguridad o el estatus legal de las personas, como automóviles autónomos, decisiones laborales o de asilo, tendrían que someterse a controles de sus sistemas antes del despliegue y enfrentar otras obligaciones estrictas.
Las medidas son el último intento del bloque de aprovechar el poder de su vasto y desarrollado mercado para establecer estándares globales que las empresas de todo el mundo se ven obligadas a seguir, al igual que con su Reglamento general de protección de datos.
Y China albergan las mayores empresas comerciales de inteligencia artificial (Google y Microsoft Corp., Baidu con sede en Beijing y Tencent con sede en Shenzhen), pero si quieren vender a los consumidores o empresas de Europa, pueden verse obligados a realizar una reforma operaciones.
Puntos clave:
- Se prevén multas del 6% de los ingresos para las empresas que no cumplan con las prohibiciones o los requisitos de datos
- Se prevén multas menores para las empresas que no cumplan con otros requisitos detallados en las nuevas reglas.
- La legislación se aplica tanto a los desarrolladores como a los usuarios de sistemas de IA de alto riesgo.
- Los proveedores de IA de riesgo deben someterla a una evaluación de conformidad antes de su implementación.
- Otras obligaciones para la IA de alto riesgo incluyen el uso de conjuntos de datos de alta calidad, lo que garantiza la trazabilidad de los resultados y la supervisión humana para minimizar el riesgo.
- Los criterios para las aplicaciones de ‘alto riesgo’ incluyen el propósito previsto, el número de personas potencialmente afectadas y la irreversibilidad del daño.
- Las aplicaciones de IA con un riesgo mínimo, como los videojuegos habilitados para IA o los filtros de spam, no están sujetas a las nuevas reglas.
- Las autoridades nacionales de vigilancia del mercado harán cumplir las nuevas normas
- La UE establecerá una junta europea de reguladores para garantizar la aplicación armonizada de la regulación en toda Europa
- Las reglas aún necesitarían la aprobación del Parlamento Europeo y los estados miembros del bloque antes de convertirse en ley, un proceso que puede llevar años.
Fuente: business-standard

