¿Conoces la primera Ley de inteligencia artificial en Europa?

Ley de inteligencia artificial en Europa

Por
13/02/2024

Siendo pionera, se ha dado luz verde a la Ley sobre Inteligencia Artificial en Europa, ya que la inteligencia artificial (IA) ha venido para quedarse de manera omnipresente en nuestras vidas, por ello es crucial controlar su uso y garantizar estándares éticos globales.

¿Qué pretende esta Ley?

Esta Ley busca garantizar que el uso de la IA en la Unión Europea (UE) sea seguro, transparente y que respete los derechos fundamentales de los usuarios, tanto en el sector público como en el privado.

Y es que evidente que la IA supone un gran compendio de beneficios, pero a la vez un gran debate en relación con sus riesgos sobre la sociedad. Por lo que la UE apuesta por la importancia de actuar cuanto antes y garantizar un ambiente seguro.

Objetivos de la Ley de inteligencia artificial en Europa

De entre los objetivos marcados en la propuesta lanzada por el Consejo y el Parlamento Europeo se destacan dos:

1º Por un lado, “garantizar que los sistemas de Inteligencia Artificial utilizados en la Unión Europea e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos”.

2º De otro lado, “estimular la inversión y la innovación en el ámbito de la IA en Europa”.

¿Cómo se pretenden conseguir estos objetivos?

Entre otras cosas, la Ley de inteligencia artificial en Europa apuesta por la supervisión humana y no por la automatización.

Asimismo, insiste en establecer un sistema de niveles de riesgo, en otras palabras, regular la IA en función de su capacidad para causar daño a la sociedad.

En resumen, cuanto mayor sea el riesgo, más estrictas van a ser las normas y, por ende, las consecuencias; implicando multas entre los 35 millones de euros o el 7% del volumen de negocios global y los 7,5 millones o el 1,5% de la facturación, dependiendo del motivo de la infracción y el propio tamaño de la empresa.

Los niveles de riesgo

Como se ha dicho, el parámetro que quiere seguirse para proteger a la sociedad es mediante los niveles de riesgo, partiendo de un nivel más bajo hasta un nivel inaceptable.

Riesgo mínimo

Entran en esta categoría los sistemas de IA de recomendación o los filtros de correo no deseado basados en la inteligencia artificial. En este nivel de riesgo serán las empresas las que, de forma voluntaria, decidan suscribir códigos de conducta adicionales sobre estos sistemas de inteligencia artificial, debido a presentar un riesgo mínimo o nulo sobre la seguridad y derechos de los ciudadanos.

Alto riesgo

Por el contrario, aquí ya no se habla de voluntariedad por parte de las empresas, ya que los sistemas IA en esta categoría van a tener que cumplir requisitos estrictos relativos a:

·         La mitigación de riesgos.

·         Registro de actividad.

·         Ciberseguridad.

·         Información clara a los usuarios.

·         Supervisión humana.

·         Documentación detallada.

·         Entre otros.

Como sistemas de IA de alto riesgo se encuentran infraestructuras de gas, electricidad, también productos sanitarios, contratación de personal, sistemas utilizados por la policía o por la administración pública, etc. Principalmente, se van a considerar de alto riesgo por daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.

Riesgo inaceptable

Este nivel de riesgo supone una prohibición de uso debido a la existencia de sistemas de IA que se consideren una amenaza muy clara para los derechos fundamentales de los ciudadanos. Por ejemplo, aquellos que puedan comportar una manipulación de la capacidad y de la voluntad de los usuarios, como puede ser el uso de juguetes con asistencia vocal que puedan incitar a un comportamiento de riesgo por parte de los menores. También van a estar prohibidos los sistemas biométricos que supongan, por ejemplo, un reconocimiento de emociones en el lugar de trabajo o de centros de estudios, o que usen características sensibles como orientación sexual o creencias religiosas. ¡OJO! Sí se va a permitir, por ejemplo, el uso de sistemas de identificación biométrica en espacios de acceso público con fines policiales, pero siempre que se tenga autorización judicial previa y para determinados delitos.

Riesgo específico de transparencia

Este nivel supone el que el usuario sepa en todo momento y sea consciente que está interactuando con una máquina, como puede ocurrir con el uso de robots conversacionales.

¿Es ya de aplicación?

Para finalizar, es relevante destacar que este acuerdo innovador en materia de IA, pendiente de ratificación, se espera que entre en vigor para el 2026.


Bibliografía

Tribuna INEAF 

https://www.ineaf.es/tribuna/ 

Webgrafía

Portales UE 

https://ec.europa.eu/commission/presscorner/detail/es/ip_23_6473

https://www.hablamosdeeuropa.es/es/Paginas/Noticias/Ley-Europea-de-Inteligencia-Artificial.aspx

https://spain.representation.ec.europa.eu/noticias-eventos/noticias-0/las-claves-de-la-nueva-ley-de-inteligencia-artificial-2024-01-25_es

https://www.europarl.europa.eu/news/es/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

https://www.consilium.europa.eu/es/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

Portal de la Administración Electrónica

https://administracionelectronica.gob.es/pae_Home/pae_Actualidad/pae_Noticias/Anio2023/Diciembre/Noticia-2023-12-11-Ley-de-inteligencia-artificial-el-Consejo-y-el-Parlamento-Europeo-llegan-a-un-acuerdo-sobre-las-primeras-normas-en-el-mundo-para-regular-la-Inteligencia-Artificial.html

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

ARTÍCULOS RELACIONADOS