reglamento europeo

El ministro para la Transformación Digital y de la Función Pública, Óscar López, ha comunicado la publicación de guías para ayudar a las empresas a cumplir con el Reglamento Europeo de Inteligencia Artificial (RIA) en sistemas de alto riesgo. Estas guías, disponibles en la web de la Agencia Española para la Supervisión de la Inteligencia Artificial (Aesia), están dirigidas específicamente a empresas dentro de España que se dedican al desarrollo de esta tecnología. «El Gobierno de España ha trabajado estrechamente con el Ministerio y doce empresas españolas de diferentes sectores para estudiar, probar y testar la regulación en torno a la inteligencia artificial antes de comercializar los productos», explicó López al concluir una reunión del Consejo Asesor Internacional de IA. Este esfuerzo es parte del ‘Sandbox’ de inteligencia artificial, una iniciativa del ministerio de López que fomenta la innovación y ayuda a empresas a cumplir con los requerimientos europeos. Además de apoyar en la regulación, estos manuales pretenden ser una guía para desarrollar sistemas de IA que sean innovadores, confiables y respetuosos con los derechos. López destacó que «España abre camino y ejerce liderazgo en la inteligencia artificial y la colaboración público-privada». Empresas como Dedomena Artificial Intelligence, Veridas Digital Authentication Solutions, y Airbus Operations, entre otras, han sido parte del proyecto. En cuanto a las conclusiones del reciente consejo, López subrayó la importancia de invertir «en tecnologías críticas y diferenciales» para alcanzar la autonomía funcional deseada y crear infraestructuras sostenibles como «fábricas de IA y centros de datos verdes». Estas infraestructuras aprovecharán «la ventaja de España en energías renovables». López recordó la importancia de invertir tanto en tecnologías clave como en la creación de infraestructuras sostenibles Respecto a la protección de menores, se está trabajando en un proyecto de ley para elevar la mayoría de edad digital de 14 a…
El Ministerio para la Transformación Digital y de la Función Pública ha dado a conocer este jueves la resolución provisional de la primera convocatoria del ‘sandbox’, un entorno controlado para pruebas de inteligencia artificial (IA). Se han seleccionado un total de 12 sistemas de alto riesgo, según informó el titular del ministerio, Óscar López, durante los ‘Desayunos Informativos de Europa Press.’ López subrayó que el ‘sandbox’ tiene como objetivo promover la competitividad de las empresas españolas, así como implementar la seguridad jurídica europea y garantizar la formación y democratización del uso de la tecnología. Este avance posiciona a España en la vanguardia de la implementación del reglamento europeo de IA. El principal propósito de este entorno es apoyar al ecosistema español de IA en el cumplimiento de las obligaciones estipuladas en el reglamento europeo, al mismo tiempo que se fomenta la competitividad y se reduce la carga regulatoria, un aspecto crucial para pequeñas y medianas empresas (pymes) y startups. Según López, «como resultado de esta experiencia… se obtendrán las guías técnicas de implementación de los requisitos que se publicarán para uso de todos los desarrolladores de IA en España», las cuales influirán en el desarrollo reglamentario y los estándares de IA en Europa. Iniciativas seleccionadas Las 12 iniciativas seleccionadas abarcan siete sectores críticos: acceso a servicios esenciales, biometría, empleo, infraestructuras críticas, maquinaria, productos sanitarios y productos para diagnóstico in vitro. Dentro del acceso a servicios esenciales, se destacan los proyectos de Dedomena Artificial Intelligence, que desarrolla un sistema de IA para la calificación crediticia y el análisis de solvencia, y el del Centro de Investigación en Tecnologías de la Información y las Comunicaciones de Galicia, que trabaja en la transcripción inteligente de las comunicaciones del 112. En el campo de la biometría, se seleccionaron los proyectos de Veridas Digital Authentication…
Se reanudan las negociaciones entre la Comisión Europea, el Parlamento Europeo y el Consejo de la Unión Europea en aras de conseguir un texto definitivo del Reglamento Europeo de Inteligencia Artificial La inteligencia artificial (IA) parece estar a punto de contar con un reglamento que determine cuáles son los límites de su utilización. Además, esa norma tiene el objetivo de salvaguardar la integridad de los usuarios y las empresas que hacen uso de ella en su día a día en Europa.  Por ello, este martes se reanudan las negociaciones entre la Comisión Europea, el Parlamento Europeo y el Consejo de la Unión Europea en aras de conseguir dar un texto definitivo del Reglamento Europeo de IA.  Los niveles de IA, según la UE En este sentido, la Unión Europea ya elaboró un borrador (AI Act) sobre el uso de la IA el pasado mes de abril, en el que se clasifican los sistemas en tres grandes niveles, divididos en modelos de implementaciones prácticas, en sistemas que cuentan con capacidad de entrenamiento y sistemas que tienen propósitos generales, según Bloomberg. El primero de ellos, que es el de los modelos funcionales, expone que los desarrolladores de IA deberán documentar, por un lado, el modelo y, por otro, el proceso de entrenamiento antes de ser publicado. Asimismo, necesitarán analizar cuál es su seguridad y cómo se gestiona el copyright.  En cuanto al segundo, que engloba a los modelos de alta capacidad, hace referencia a aquellos modelos cuya clasificación dependerá de la potencia de cálculo que haya sido necesaria para su entrenamiento, aunque aún se desconocen los rangos de potencia.  Por último, se encuentran los modelos con propósitos generales, que estarán etiquetados según el número de usuarios que utilizan las herramientas con IA y deberán crear informes de riesgos. La propuesta regulatoria de…