Ley de inteligencia artificial

Ley de inteligencia artificial
Información sobre la plantilla
Concepto:su objetivo es tener una regulación clara de las aplicaciones de inteligencia artificial, sin asfixiar a los desarrolladores.

Ley de inteligencia artificial La ley lleva en proceso varios años y su objetivo es tener una regulación clara de las aplicaciones de inteligencia artificial, sin asfixiar a los desarrolladores. Los legisladores están inmersos en las negociaciones y se espera que la próxima etapa de conversaciones legislativas comience en los próximos meses. España será, precisamente, uno de los lugares de prueba para poner en práctica esta innovadora ley acerca de la IA generativa.

¿Qué regulará la Ley de IA? Lo primero que hay que tener en cuenta sobre la Ley de IA es que no se aplica exclusivamente a organizaciones o ciudadanos con sede en la UE sino en todo el mundo (de forma similar a lo que ocurrió con la presentación del RGPD). El informe establece una definición común de IA entre los estados de la UE, y marca códigos rojos, naranjas, amarillos o verdes, según el nivel de preocupación de la Unión Europea ante distintos asuntos (de inaceptable a mínimo).

Prohibiciones

La Ley IA prohíbe el despliegue de ciertas prácticas, como el uso de reconocimiento facial en lugares públicos, esto es, todos aquellos algoritmos que clasifiquen a las personas de una u otra forma, y establece reglas básicas basadas en niveles de riesgo, que van desde "mínimo" a "inaceptable". Los sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público; los sistemas de categorización biométrica que utilizan características sensibles (p. ej., género, raza, etnia, estado de ciudadanía, religión, orientación política); los sistemas policiales predictivos (basados en perfiles, ubicación o conducta delictiva pasada); los sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y el raspado indiscriminado de datos biométricos de las redes sociales o imágenes de CCTV para crear bases de datos de reconocimiento facial (violando los derechos humanos y el derecho a la privacidad) quedan descritas como prácticas de riesgo máximo (o código rojo).

A quienes utilicen herramientas consideradas de alto riesgo se les exigirá una gran transparencia en su utilización, como las que se utilizan en infraestructura crítica, aplicación de la ley o educación. Como riesgo menor o limitado también contempla la generación de imágenes (como Midjourney o la futura Perfusion AI, los chats automáticos como ChatGPT, el reconocimiento de emociones o los bots de los videojuegos.

El reglamento también establecerá normas armonizadas para la comercialización, la puesta en servicio y el uso de sistemas de inteligencia artificial en la Unión; normas sobre seguimiento del mercado, vigilancia del mercado y gobernanza o medidas de apoyo a la innovación, aparte de los requisitos y las prohibiciones ya expuestas. Las prácticas que puedan influir en campañas políticas, sistemas de recomendación de redes sociales, la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas, también han sido añadidas en la lista de alto riesgo.

Es la primera ley que pretende frenar estos daños mediante la regulación de todo el sector. Si la ley nacida en Europa tiene éxito, podría establecer un nuevo estándar global para la supervisión de la IA en todo el mundo.

Fuentes

https://www.muyinteresante.es/actualidad/60435.html