'El jueves, la Comisión de Mercado Interior y la Comisión de Libertades Civiles adoptaron un proyecto de mandato de negociación sobre las primeras normas para la inteligencia artificial con 84 votos a favor, 7 en contra y 12 abstenciones. En sus enmiendas a la propuesta de la Comisión, los eurodiputados tienen como objetivo garantizar que los sistemas de IA sean supervisados por personas, sean seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente. También quieren tener una definición uniforme de IA diseñada para ser tecnológicamente neutral, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana.
Enfoque de la IA basado en el riesgo: prácticas prohibidas de la IA
Las reglas siguen un enfoque basado en riesgos y establecen obligaciones para proveedores y usuarios dependiendo del nivel de riesgo que la IA pueda generar. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que implementan técnicas subliminales o deliberadamente manipuladoras, explotan las vulnerabilidades de las personas o se utilizan para calificar socialmente (clasificar a las personas en función de su comportamiento social, estatus socioeconómico, personal). características).
Los eurodiputados modificaron sustancialmente la lista para incluir prohibiciones de usos intrusivos y discriminatorios de los sistemas de IA, como:
- Sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público;
- Sistemas de identificación biométrica a distancia “post”, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial;
- Sistemas de categorización biométrica que utilizan características sensibles (p. ej., género, raza, etnia, estado de ciudadanía, religión, orientación política);
- Sistemas policiales predictivos (basados en perfiles, ubicación o conducta delictiva pasada);
- Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas;
- y Raspado indiscriminado de datos biométricos de las redes sociales o imágenes de CCTV para crear bases de datos de reconocimiento facial (violando los derechos humanos y el derecho a la privacidad).
IA de alto riesgo
Los eurodiputados ampliaron la clasificación de áreas de alto riesgo para incluir daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También agregaron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios bajo la Ley de Servicios Digitales).
IA de uso general: medidas de transparencia
Los eurodiputados incluyeron obligaciones para los proveedores de modelos básicos, un desarrollo nuevo y de rápida evolución en el campo de la IA, que tendrían que garantizar una protección sólida de los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el estado de derecho. Tendrían que evaluar y mitigar los riesgos, cumplir con los requisitos de diseño, información y ambientales y registrarse en la base de datos de la UE.
Los modelos básicos generativos, como GPT, tendrían que cumplir con requisitos de transparencia adicionales, como revelar que el contenido fue generado por IA, diseñar el modelo para evitar que genere contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para capacitación.
No hay comentarios:
Publicar un comentario