Buscar
Cerrar este cuadro de búsqueda.

Actualidad

Así es la primera normativa sobre inteligencia artificial regulada por ley en la Unión Europea

La Inteligencia Artificial, regulada por ley: Con la implementación gradual de esta normativa, se abre un nuevo capítulo en la gobernanza tecnológica en Europa, marcando un precedente para otras regiones del mundo​. E​stos son los aspectos clave de esta legislación pionera

Por Marta Díaz de Santos

En un paso histórico hacia la regulación de la tecnología, la Unión Europea ha establecido la primera ley integral sobre inteligencia artificial (IA) a nivel mundial. Esta nueva normativa, conocida como la Ley de IA, busca garantizar el desarrollo y uso responsable de esta innovadora tecnología, promoviendo sus beneficios mientras se mitigan los riesgos asociados. Estos son los aspectos clave de esta legislación pionera: te contamos cómo transformará el panorama de la IA en Europa.

La Ley de IA, adoptada por el Parlamento Europeo en marzo de 2024 y aprobada por el Consejo en mayo de 2024, se enmarca dentro de la estrategia digital de la Unión Europea. Esta legislación surge con el objetivo de regular la inteligencia artificial para asegurar que su desarrollo y aplicación sean seguros, transparentes y respetuosos con los derechos de los ciudadanos.

En concreto, la normativa establece un enfoque basado en el riesgo, clasificando los sistemas de IA en función del peligro que puedan representar para los usuarios. Esta clasificación determina el nivel de regulación aplicable:

- Riesgo inaceptable: Los sistemas de IA que se consideren una amenaza directa para las personas serán prohibidos. Ejemplos incluyen la manipulación cognitiva de comportamientos en grupos vulnerables, el uso de puntuaciones sociales para clasificar a individuos, y el reconocimiento facial en tiempo real. No obstante, se permiten excepciones limitadas, como el uso de la identificación biométrica a distancia para la persecución de delitos graves, siempre con la aprobación judicial previa.

​- Riesgo alto: Los sistemas de IA que puedan afectar la seguridad o los derechos fundamentales se dividen en dos categorías. Por un lado, los productos regulados, que incluyen sistemas utilizados en sectores sujetos a regulaciones de seguridad, como juguetes, aviación, automóviles, dispositivos médicos y ascensores. Por otro lado, los ámbitos específicos. Estos incluyen áreas como la identificación biométrica, la gestión de infraestructuras críticas, la educación, el empleo, la aplicación de la ley y la gestión de la migración. Todos estos sistemas deben registrarse en una base de datos de la UE y serán evaluados antes y durante su ciclo de vida.

La Ley de IA impone requisitos específicos de transparencia, especialmente para las IA generativas, como ChatGPT. Estos requisitos incluyen la revelación de que el contenido ha sido generado por IA, la prevención de la generación de contenidos ilegales y la publicación de resúmenes de los datos utilizados para el entrenamiento. Además, los modelos de IA de uso general que puedan tener un alto impacto y riesgo sistémico, como GPT-4, deberán someterse a evaluaciones exhaustivas e informar a la Comisión Europea sobre cualquier incidente grave. El contenido modificado o generado por IA también deberá etiquetarse claramente para evitar la difusión de "ultrafalsificaciones".

Ibán García del Blanco (eurodiputado): “La nueva ley de IA no resta ni un ápice a la competitividad europea” 

La ley también busca fomentar la innovación al proporcionar espacios de prueba controlados para pequeñas y medianas empresas (pymes) y startups. Estos entornos permitirán el desarrollo y entrenamiento de IA en condiciones reales antes de su comercialización, promoviendo un ecosistema de innovación en Europa.

"Que haya una ley europea que regule la Inteligencia Artificial es una buena noticia. Porque significa que la segunda velocidad está en marcha", reconoce Verónica Ferrer, profesora de EAE Business School. "Existen tres velocidades: la velocidad de la innovación tecnológica, que es muy rápida; la velocidad legislativa, que es regular la innovación tecnológica, que siempre va por delante; y la velocidad ética, que va por detrás. En cuanto a la primera, la parte tecnológica de IA está muy desarrollada, aunque queda aún mucho por hacer. Además, que hayamos reaccionado a nivel de regulación y legislación es una buena noticia. Ahora tenemos que velar para que esta legislación se implemente y se integre con la realidad, monitorizando para que la ley se cumpla. Por último, aunque exista una regulación, no debemos olvidarnos de la parte ética. La IA plantea retos muy nuevos y no tenemos que dejar de pensar en lo que conlleva, cuales son los límites, etc. de esta disruptiva tecnología. Esta tercera velocidad, tampoco no debemos olvidarla", explica la experta.

Implementación y plazos

La Ley de IA será plenamente aplicable 24 meses después de su entrada en vigor, aunque algunas disposiciones entrarán en efecto antes, como la prohibición de sistemas de IA de riesgo inaceptable, que se aplicará seis meses después. Los códigos de buenas prácticas se aplicarán nueve meses después. Los requisitos de transparencia para sistemas de IA de uso general entrarán en vigor 12 meses después. Por último, los sistemas de alto riesgo tendrán un plazo de 36 meses para cumplir con todas las obligaciones.

Únete a nuestra Newsletter

A través de nuestra Newsletter con Capital te hacemos llegar lo más importante que ocurre en el mundo de la #economía, los #negocios, las #empresas, etc… Desde las últimas noticias hasta un resumen con toda la información más relevante al final del día, con toda comodidad.