Detalles del evento
FRIAS = Fundamental Rights Impact Assesment (Evaluación de Impacto sobre Derechos Fundamentales)
La aprobación del Reglamento de Inteligencia Artificial (Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial), establece una serie de obligaciones para los diferentes actores que intervienen en la cadena de la IA.
En este contexto, el presente curso aborda el reto de la realización de las evaluaciones de impacto relativas a los derechos fundamentales (FRIAs) exigidas por el art. 27 del mencionado Reglamento y que también forman parte de la más amplia evaluación de conformidad. Para ello, abordaremos qué son las FRIAs, cuáles son sus requisitos y los diferentes modelos que se pueden utilizar para realizarlas con un enfoque práctico e internacional.

- Familiarizarse con las Evaluaciones de impacto relativas a derechos fundamentales.
- Conocer las metodologías más relevantes que se han publicado a nivel nacional e internacional.
- Identificar los casos en que es obligatorio realizar una FRIA y los actores responsables dentro de la organización.
- Conocer las fases del proceso FRIA: planificación, identificación de riesgos, análisis, mitigación y documentación.
- Tener la oportunidad de ver e implementar estas metodologías a través de casos concretos y de la práctica final que realizará el alumnado.
- Evaluar los posibles impactos de los sistemas de IA sobre los derechos fundamentales (igualdad, privacidad, libertad de expresión, no discriminación, etc.).
- Integrar las FRIAs dentro de la evaluación de conformidad general del sistema de IA y coordinar su relación con las EIPD (Evaluaciones de Impacto en Protección de Datos).
Elaborar informes de evaluación claros, justificables y útiles para la toma de decisiones y la rendición de cuentas ante autoridades y partes interesadas.
MÓDULO TEÓRICO
Unidad 1: Introducción breve al RIA.
Docente: Esther García Encinas
En esta sesión abordaremos brevemente el RIA a los efectos de contextualizar las FRIAs. Para ello, nos centraremos en los siguientes aspectos:
- Objetivo
- Ámbito de aplicación
- Definiciones clave
- Estructura
- FRIAs: concepto y objetivo
- Hacerlas o no hacerlas: consecuencias y beneficios
Unidad 2: La evaluación de impacto relativa a los derechos fundamentales para los sistemas de IA de alto riesgo.
Docente: Alessandro Mantelero
En esta sesión profundizaremos en las FRIAs y, para ello, abordaremos los siguientes aspectos:
- Alto riesgo: la obligatoriedad de la FRIA
- Requisitos específicos
- Metodologías existentes (HUDERIA, FRAIA, APDCAT)
- Caso práctico
Unidad 3: Gestión de riesgos
Docente: Esther García Encinas
En esta sesión abordaremos los esquemas de gestión de riesgos de la IA más relevantes. En este sentido, repasaremos:
- Frameworks existentes para identificar y evaluar riesgos
- ISO 42001
- Mitigación de riesgos: plan de acción
- Preguntas y respuestas
- Test de validación de conocimientos parte téorica
MÓDULO PRÁCTICO
Unidad 4: Casos de uso
Docente: Alessandro Mantelero
Sesión práctica en la que repasaremos casos reales y los retos abordados en sus evaluaciones de impacto en derechos fundamentales. En concreto, abordaremos los ejercicios realizados y publicados en el marco de la Guía para la evaluación de impacto sobre los derechos fundamentales en el uso de la inteligencia artificial de la Autoridad Catalana de Protección de datos.
Unidad 5: Hagamos una FRIA
Docentes: Esther García Encinas y Alessandro Mantelero
Última sesión en la que resolveremos conjuntamente el caso práctico trabajado en equipo por los alumnos.
Programa 100% online de seguimiento autónomo, con materiales didácticos de elaboración propia, documentación de apoyo y otros recursos. Foro de dudas y tutorización puntual con el docente.
Metodología del Curso
Este curso se imparte en modalidad 100% online, lo que permite a los participantes avanzar desde cualquier lugar y en el horario que mejor se adapte a sus necesidades.
Seguimiento semanal
Cada semana se habilitan nuevos contenidos y actividades, organizados para facilitar un aprendizaje progresivo y autónomo. Los estudiantes pueden gestionar su tiempo dentro de los plazos establecidos, manteniendo un ritmo constante.
Sesiones de tutoría
5 sesiones webinar en directo donde se expondrán los temas clave, se explicarán los casos prácticos, se resolverán dudas y se fomentará la interacción directa con el equipo docente y otros participantes.
Foro de consultas y participación
La experiencia formativa se enriquece con una interacción constante entre los participantes y los profesores mediante foros para resolver dudas y fomentar el debate.
Materiales de estudio y actividades prácticas
Cada módulo incluye recursos didácticos como pueden ser lecturas, videos y guías, junto con actividades diseñadas para aplicar los conocimientos adquiridos.
Evaluaciones con fecha límite
Algunas actividades y pruebas de evaluación tienen tiempo y fecha límite para su realización. Es responsabilidad del estudiante revisar el calendario del curso y cumplir con los plazos establecidos para cada actividad evaluativa
Sesiones webinar en directo
- Jueves 13/11/2025 18:30 – 20:00 CET peninsular
- Miércoles 19/11/2025 18:30 – 20:00 CET peninsular
- Lunes 24/11/2025 18:30 – 20:00 CET peninsular.
- Lunes 01/12/2025 18:30 – 20:00 CET peninsular.
- Miércoles 10/12/2025 18:30 – 19:30 CET peninsular.
Todos los webinars serán grabados para facilitar el seguimiento.
Cuestionario de conocimientos
Online, a resolver entre las 9:00 del 28/11/2025 y las 23:59 del 30/11/2025
Caso práctico grupal
Hasta el 9/12/2025 23:59h CET peninsular
- Responsables de cumplimiento, DPOs y asesores legales que gestionen el cumplimiento del Reglamento de IA.
- Equipos técnicos y de IA, involucrados en el diseño, despliegue o evaluación de sistemas de IA de alto riesgo.
- Consultores y auditores especializados en gobernanza tecnológica, ética digital o protección de datos.
- Funcionarios, reguladores o personal del sector público que deban revisar o evaluar proyectos de IA.
- Organizaciones públicas o privadas que busquen implementar metodologías internas para la gestión responsable de riesgos en IA.
La entrada en vigor del Reglamento Europeo de Inteligencia Artificial (Reglamento UE 2024/1689) ha introducido una nueva obligación clave: la realización de Evaluaciones de Impacto sobre los Derechos Fundamentales (FRIA), exigidas por su artículo 27 y parte esencial del proceso de evaluación de conformidad de los sistemas de IA.
Este curso breve y práctico proporciona una metodología clara, estructurada y aplicable para planificar, realizar y documentar correctamente una FRIA conforme al nuevo marco normativo europeo.
Los participantes aprenderán qué son las FRIAs, cuándo deben realizarse, quién debe impulsarlas y cómo integrarlas dentro del ciclo de vida de un sistema de IA, abordando además distintos modelos y estándares internacionales para su ejecución.
A través de un enfoque operativo e interdisciplinar, el curso combina los aspectos jurídicos, éticos y técnicos implicados, ofreciendo pautas concretas y herramientas de trabajo para garantizar el cumplimiento del Reglamento y fomentar la confianza en la IA confiable.
Una formación esencial para organizaciones, responsables de cumplimiento, DPOs, equipos de IA y asesores que buscan dominar esta nueva obligación regulatoria.
En la formación APEP·IA siempre desarrollamos competencias a la vez que incorporamos conocimientos. El alumno que sigue el programa con aprovechamiento desarrollará las siguientes competencias específicas de la privacidad y la protección de datos:
- Interpretar las obligaciones del Reglamento de IA relativas a los derechos fundamentales.
- Diseñar y ejecutar metodologías prácticas de evaluación de impacto (FRIA).
- Integrar la FRIA con otras evaluaciones (EIPD, compliance, ética de IA).
- Analizar riesgos éticos, sociales y legales asociados al uso de la IA.
- Elaborar documentación conforme a los estándares de transparencia y gobernanza.
Alessandro Mantelero
Alessandro Mantelero es profesor titular de Derecho y Tecnología y titular de la Cátedra Jean Monnet de Sociedades Digitales Mediterráneas y Derecho en la Universidad Politécnica de Turín. Es miembro del Grupo de expertos de apoyo del EDPB, del Grupo de expertos de la OCDE sobre IA y experto científico jurídico en IA para INTERPOL…
Esther García Encinas
Responsable de la oficina corporativa de privacidad de CaixaBank. Licenciada en derecho por la Universidad Pompeu Fabra, postgrado en relaciones internacionales de la UB y máster en derecho internacional de los negocios, ESADE. Cuenta con certificaciones nacionales y europeas en materia de protección de datos e imparte regularmente formaciones en protección de datos (Máster de…
Ruben Ortiz Uroz
Experto en protección de datos personales con más de diez años de experiencia profesional. Durante cinco años ha sido delegado de protección de datos de la Universitat de Barcelona y, con anterioridad, fue técnico superior en protección de datos en la misma universidad asesorando, en especial, a los investigadores que reciben financiación de las instituciones…



