Estas son las claves de la futura ley de Inteligencia artificial en la Unión Europea

Futura ley IA en la UE

La Inteligencia Artificial ha llegado como un terremoto y ya está prácticamente presente en todas las conversaciones del mundo actual. Para garantizar un desarrollo ético y centrado en el ser humano de la Inteligencia Artificial (IA) en Europa, los eurodiputados han aprobado nuevas normas de transparencia y gestión de riesgos para los sistemas de IA.

La pasada semana, la comisión de Mercado Interior y la de Libertades Civiles aprobó con 84 votos a favor, 7 en contra y 12 abstenciones un proyecto sobre las primeras normas de la historia que pretenden regular la Inteligencia Artificial.

En sus enmiendas a la propuesta de la Comisión, los eurodiputados buscan garantizar que los sistemas de IA estén supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. También quieren contar con una definición uniforme de IA diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana.

Enfoque de la IA basado en el riesgo

Las normas siguen un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios en función del nivel de riesgo que pueda generar la IA, tal y como apunta el Parlamento Europeo. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que despliegan técnicas subliminales o de manipulación intencionada, explotan las vulnerabilidades de las personas o se utilizan para el scoring social (clasificación de personas en función de su comportamiento social, estatus socioeconómico o características personales).

Los eurodiputados modificaron sustancialmente la lista para incluir prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como:

  • Sistemas de identificación biométrica remota "en tiempo real" en espacios de acceso público

  • Sistemas de identificación biométrica remota "a posteriori", con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial

  • Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política)

  • Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores)

  • Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas

  • Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad)

Los eurodiputados ampliaron la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales de las personas o el medio ambiente. También añadieron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios según la Ley de Servicios Digitales).

IA de uso general: medidas de transparencia

Los eurodiputados incluyeron obligaciones para los proveedores de modelos de cimentación (un desarrollo nuevo y en rápida evolución en el campo de la IA), que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el Estado de Derecho. Tendrían que evaluar y mitigar los riesgos, cumplir los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE.


Los modelos de base generativa, como GPT, tendrían que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.


Apoyar la innovación y proteger los derechos de los ciudadanos

Como apunta la web del Parlamento Europeo, para impulsar la innovación en IA, los eurodiputados han añadido exenciones a estas normas para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve la creación de entornos controlados por parte de las autoridades públicas para probar la IA antes de su despliegue.

Además, los eurodiputados quieren impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos. Los eurodiputados también han reformado el papel de la Oficina de Inteligencia Artificial de la UE, que se encargaría de supervisar cómo se aplica el reglamento sobre IA.

Antes de que puedan comenzar las negociaciones con el Consejo sobre la forma final de la ley, este proyecto deberá ser refrendado por todo el Parlamento, con la votación prevista durante el periodo de sesiones del 12 al 15 de junio.

Fuente: Parlamento Europeo

Anterior
Anterior

Los publishers europeos se mantienen firmes en el bloqueo de ID's alternativos a las cookies de terceros

Siguiente
Siguiente

IAB apuesta por impulsar un acuerdo transatlántico sobre datos tras la sanción a Meta