Índice de contenidos
- La transformación de recursos humanos a través de la IA: oportunidades y riesgos para la protección de datos
- Marco legal para la IA en el área de personal en 2025
- Casos de uso de IA en RRHH y sus requisitos específicos de protección de datos
- Medidas técnicas y organizativas para la IA en RRHH conforme a la protección de datos
- Roles y responsabilidades en la implementación de IA en el área de RRHH
- Implementación práctica: paso a paso hacia la IA en RRHH conforme al RGPD
- Mejores prácticas y casos de estudio de medianas empresas
- Aspectos internacionales y transferencia de datos
- Perspectivas futuras: desarrollos en el ámbito de la IA y la protección de datos
- FAQ: Preguntas frecuentes sobre IA conforme al RGPD en el ámbito de RRHH
La transformación de recursos humanos a través de la IA: oportunidades y riesgos para la protección de datos
El uso de la Inteligencia Artificial está revolucionando el trabajo de recursos humanos en medianas empresas. Desde la preselección automatizada de candidatos hasta el desarrollo profesional basado en datos, las posibilidades parecen ilimitadas. Sin embargo, mientras los sistemas de IA prometen impresionantes aumentos de eficiencia, también plantean complejas cuestiones sobre protección de datos.
¿Por qué es tan importante ahora mismo? Según un estudio de Bitkom de 2024, el 68% de las medianas empresas en Alemania planean usar tecnologías de IA en el área de personal – un aumento del 24% respecto al año anterior. Al mismo tiempo, las autoridades de protección de datos informan de un aumento significativo en las multas relacionadas con el procesamiento de datos personales mediante IA.
Tendencias actuales de IA en RRHH y su relevancia para medianas empresas
La revolución de la IA en recursos humanos está en pleno apogeo. Para medianas empresas con 10-250 empleados, esto abre nuevas oportunidades para competir en igualdad de condiciones con competidores más grandes. Según el HR Tech Report 2025, el 47% de las medianas empresas alemanas ya utilizan al menos una aplicación de RRHH basada en IA.
Especialmente en reclutamiento vemos cambios profundos. Los algoritmos de coincidencia basados en IA reducen el tiempo hasta la ocupación de puestos vacantes en un promedio del 35%, según muestra un análisis actual de LinkedIn. Los sistemas modernos no solo escanean currículums, sino que evalúan habilidades blandas, predicen el ajuste cultural y crean planes de incorporación individualizados.
También en el desarrollo del personal se están estableciendo nuevos enfoques. Los sistemas de aprendizaje inteligentes adaptan automáticamente las medidas de formación a fortalezas y debilidades individuales. El BMAS (Ministerio Federal de Trabajo y Asuntos Sociales) estima que el uso de tales rutas de aprendizaje personalizadas puede aumentar la efectividad de las medidas de formación en un 28%.
Para las medianas empresas, estos desarrollos ofrecen enormes oportunidades. Thomas, socio-director de una empresa de maquinaria especializada, conoce la presión de tiempo de sus jefes de proyecto. La automatización de tareas administrativas de RRHH podría liberar valiosos recursos. Los estudios muestran que los departamentos de RRHH pueden utilizar hasta el 40% de su tiempo para tareas más estratégicas gracias al apoyo de la IA.
Por qué la protección de datos es especialmente crítica en la IA para RRHH: los hechos
Sin embargo, el uso de IA en recursos humanos trae consigo desafíos especiales. Los datos de RRHH están entre la información más sensible de una empresa. No solo incluyen datos de contacto, sino también información de salud, evaluaciones de rendimiento, perfiles psicométricos y objetivos de desarrollo personal.
La gravedad se refleja en la práctica de imposición de multas: según el informe anual de las autoridades europeas de protección de datos, alrededor del 27% de todas las multas del RGPD en 2024 correspondieron a infracciones relacionadas con datos de personal – una proporción considerable. El importe medio de estas multas fue de 112.000 euros, lo que puede suponer una amenaza existencial para muchas medianas empresas.
Otro aspecto crítico: los sistemas de IA pueden actuar de manera discriminatoria sin intención. Un estudio de la Universidad Técnica de Múnich de 2024 mostró que el 62% de las IA de reclutamiento examinadas presentaban sesgos sistemáticos – por ejemplo, en detrimento de candidatos mayores o mujeres con interrupciones familiares en su currículum. Esto puede llevar no solo a infracciones del RGPD, sino también a conflictos con la Ley General de Igualdad de Trato (AGG).
Para Anna, directora de RRHH de un proveedor de SaaS, este riesgo es real. Ella busca formación en IA para su equipo, pero quiere cumplir con las directrices internas de conformidad. Este dilema es típico: una encuesta de BITKOM muestra que el 73% de los responsables de RRHH citan las preocupaciones sobre protección de datos como el principal obstáculo para la introducción de soluciones de IA.
Marco legal para la IA en el área de personal en 2025
El marco legal para el uso de IA en el área de RRHH ha evolucionado significativamente en los últimos años. Las empresas deben navegar hoy por una compleja red de RGPD, Ley de IA y regulaciones nacionales. Las infracciones no solo pueden tener consecuencias financieras, sino también dañar permanentemente la confianza de los empleados.
Principios del RGPD y su aplicación a sistemas de IA
Incluso en 2025, el RGPD forma la base para la protección de datos en aplicaciones de IA en el área de personal. Los seis principios centrales del RGPD – legalidad, limitación de finalidad, minimización de datos, exactitud, limitación del plazo de conservación e integridad – se aplican sin restricciones a los sistemas algorítmicos.
Especialmente desafiante es la implementación del principio de transparencia. Una encuesta de la Fundación de Protección de Datos reveló que el 81% de los empleados quiere saber cuándo los sistemas de IA toman o preparan decisiones sobre ellos. Según los artículos 13 y 14 del RGPD, las empresas deben informar proactivamente sobre el uso de tales sistemas.
La base legal para el procesamiento de datos personales asistido por IA sigue siendo compleja. En la mayoría de los casos, el procesamiento no puede basarse en el consentimiento de los empleados (Art. 6, párrafo 1, lit. a RGPD), ya que en la relación laboral a menudo se cuestiona la voluntariedad. En su lugar, se consideran principalmente el Art. 6, párrafo 1, lit. b RGPD (ejecución del contrato) o el Art. 6, párrafo 1, lit. f RGPD (interés legítimo).
Un punto crítico es el Art. 22 RGPD, que regula las decisiones individuales automatizadas. Después de una aclaración del TJUE en el caso C-634/21 (2023), se aplica lo siguiente: incluso si los sistemas de IA solo hacen propuestas de decisión, caen bajo el Art. 22 si estas propuestas se adoptan por defecto. El Comisionado Federal de Protección de Datos publicó directrices al respecto en 2024, exigiendo una «supervisión humana efectiva».
La Ley de IA de la UE y su impacto en las aplicaciones de RRHH
Con la plena entrada en vigor de la Ley de IA de la UE, el panorama regulatorio para la IA en el área de RRHH se ha diferenciado aún más. La Ley de IA categoriza las aplicaciones de IA según su potencial de riesgo y establece diferentes requisitos.
Especialmente relevante para aplicaciones de RRHH: muchos sistemas de reclutamiento y evaluación de empleados caen en la categoría de IA de alto riesgo. Según un análisis de Bitkom, esto afecta a aproximadamente el 65% de las soluciones de IA para RRHH actualmente utilizadas en medianas empresas. Para estos sistemas se aplican amplias obligaciones:
- Establecimiento de un sistema de gestión de riesgos
- Uso de datos de entrenamiento de alta calidad
- Documentación técnica detallada
- Información transparente al usuario
- Supervisión humana adecuada
- Alta precisión y robustez
Markus, director de TI de un grupo de servicios, se enfrenta al desafío de implementar estos requisitos en un entorno de sistemas heterogéneo. Una encuesta representativa de KPMG muestra que el 72% de los responsables de TI en medianas empresas consideran la implementación de la Ley de IA como «muy compleja» o «compleja».
El marco de sanciones es considerable: para infracciones graves, se arriesgan sanciones de hasta 35 millones de euros o el 7% de la facturación mundial anual, lo que sea mayor. Sin embargo, hay facilidades para las PYMES, especialmente en las obligaciones de documentación.
Particularidades nacionales y requisitos del derecho laboral
Además de la normativa a nivel de la UE, las empresas deben tener en cuenta las particularidades nacionales. En Alemania, la Ley de Constitución Empresarial juega un papel central. Según el § 87, párrafo 1, nº 6 BetrVG, el comité de empresa tiene derecho de codecisión en la introducción y aplicación de instalaciones técnicas diseñadas para supervisar el comportamiento o rendimiento de los empleados.
El Tribunal Federal de Trabajo, en una sentencia fundamental (1 ABR 27/23 del 14.11.2023), ha aclarado que los sistemas de selección de personal basados en IA están sujetos a codecisión, independientemente de si la decisión final la toman humanos. En la práctica, esto significa: sin el consentimiento del comité de empresa o un acuerdo en el comité de conciliación, tales sistemas no pueden ser introducidos.
Otro aspecto importante es la Ley General de Igualdad de Trato (AGG). Un estudio del Instituto Alemán de Investigación Económica (DIW) de 2024 muestra que el 47% de los sistemas de IA examinados en reclutamiento podrían violar potencialmente la AGG al discriminar sistemáticamente a ciertos grupos de candidatos.
Una novedad es la Ley de Protección de Denunciantes, en vigor desde diciembre de 2023. Permite a los empleados denunciar anónimamente infracciones de protección de datos o principios éticos en aplicaciones de IA. Las empresas con más de 50 empleados deben establecer canales de denuncia adecuados.
Este complejo panorama regulatorio supone un desafío especialmente para las medianas empresas. Una encuesta actual del ZEW Mannheim muestra que solo el 34% de las medianas empresas comprenden completamente los requisitos legales para la IA en el área de RRHH.
Casos de uso de IA en RRHH y sus requisitos específicos de protección de datos
Los campos de aplicación de la IA en recursos humanos son diversos y crecen constantemente. Sin embargo, cada caso de uso conlleva desafíos específicos en materia de protección de datos. Para un uso legalmente conforme, estos deben ser comprendidos y abordados con precisión.
Reclutamiento y gestión de candidatos con IA
El reclutamiento es actualmente el área de aplicación más extendida para la IA en RRHH. Según un estudio de Oracle y Future Workplace, ya el 67% de las medianas empresas en Europa utilizan apoyo de IA en la selección de personal. Las posibilidades de aplicación son variadas:
- Preselección automatizada de solicitudes
- Coincidencia de perfiles de candidatos con requisitos del puesto
- Entrevistas en video asistidas por IA con análisis de lenguaje, expresiones faciales y lenguaje corporal
- Chatbots para la comunicación con candidatos
- Modelos de pronóstico para la idoneidad y retención de empleados a largo plazo
Los desafíos de protección de datos son considerables. Los candidatos tienen derecho, según el Art. 13 RGPD, a ser informados sobre el uso de sistemas algorítmicos. Sin embargo, un estudio de la Sociedad de Informática muestra que solo el 42% de las empresas informan de manera transparente sobre el uso de IA en el reclutamiento.
Especialmente crítico: según una decisión del Comité Europeo de Protección de Datos (CEPD) de febrero de 2024, las entrevistas de video asistidas por IA con reconocimiento de emociones y comportamiento se consideran procesamiento de datos biométricos según el Art. 9 RGPD. Esto requiere un consentimiento explícito de los candidatos y medidas de seguridad exhaustivas.
Otro problema son las potenciales discriminaciones. La Ley de IA clasifica la IA de reclutamiento como sistema de alto riesgo, ya que los datos históricos de contratación a menudo contienen prejuicios inconscientes. Thomas, el gerente de la empresa de maquinaria especializada, debe prestar especial atención a algoritmos justos al usar tales sistemas. Soluciones técnicas como «Métricas de Equidad» y auditorías regulares de sesgo pueden ayudar aquí.
Planificación y desarrollo de personal
En el área de planificación de personal, los sistemas de IA están revolucionando la organización del trabajo. Analizan datos históricos, reconocen patrones y crean horarios optimizados. Según un análisis de Deloitte, las empresas pueden reducir los costes de personal en un promedio del 8% y al mismo tiempo aumentar la satisfacción de los empleados.
Sin embargo, las aplicaciones actuales de IA van mucho más allá. Pronostican la fluctuación, sugieren trayectorias profesionales individuales e identifican necesidades de formación. Un estudio del ifo de 2024 muestra que las empresas con desarrollo de personal asistido por IA presentan una retención de empleados un 23% mayor.
Desde la perspectiva de la protección de datos, la limitación de finalidad es crítica aquí. Los datos recopilados para el registro de tiempo de trabajo no pueden utilizarse sin más para análisis de rendimiento. La Conferencia de Protección de Datos (DSK) ha aclarado en 2024 que para esto se necesita una base legal separada o un acuerdo de empresa.
Para Anna, la directora de RRHH, esto significa: debe comunicar de manera transparente qué datos se utilizan para qué fines. Una plantilla modelo de la GDD (Sociedad para la Protección de Datos y Seguridad de Datos) puede ayudarla a proporcionar la información necesaria según el Art. 13 RGPD.
Análisis de empleados y People Analytics
People Analytics utiliza IA para obtener conocimientos más profundos sobre la plantilla. Mediante el análisis de diversos puntos de datos, se pueden reconocer conexiones que permanecerían invisibles con métodos convencionales. Según el HR Analytics Market Report 2025, el 58% de las medianas empresas planean utilizar métodos avanzados de análisis.
Los casos de uso típicos incluyen:
- Pronósticos sobre la fluctuación de empleados y sus causas
- Identificación de factores que influyen en el compromiso de los empleados
- Análisis de dinámicas de equipo y patrones de colaboración
- Detección de riesgos de burnout y otros indicadores de salud
- Medición de la efectividad de las medidas de RRHH
Desde el punto de vista de la protección de datos, son especialmente delicados los análisis que podrían afectar a categorías sensibles como datos de salud u opiniones políticas. Un estudio del Instituto Fraunhofer de 2024 muestra que los sistemas de IA pueden deducir cargas psicológicas con una precisión del 74% a partir de datos aparentemente inofensivos como patrones de comunicación por correo electrónico.
La autoridad bávara de supervisión de protección de datos ha aclarado en 2024, tras varias quejas: incluso si los análisis se realizan a nivel agregado, pueden estar sujetos al RGPD si es posible extraer conclusiones sobre personas individuales. El principio de minimización de datos debe observarse estrictamente.
Para Markus, el director de TI, esto significa: debería apostar por técnicas de anonimización y seudonimización al implementar People Analytics, y realizar una evaluación de impacto de protección de datos para análisis sensibles.
Chatbots y automatización en la administración de RRHH
Los chatbots de RRHH y los flujos de trabajo automatizados alivian a los departamentos de personal de tareas rutinarias. Los sistemas modernos responden preguntas de empleados, apoyan en la presentación de solicitudes y automatizan procesos administrativos. Según un estudio de la asociación digital Bitkom, las empresas que utilizan tales sistemas han podido reducir la carga administrativa en RRHH en un promedio del 36%.
La última generación de chatbots de RRHH utiliza Modelos de Lenguaje Grandes (LLMs) como GPT-4 o Claude y puede responder con precisión a consultas en lenguaje natural. Según una encuesta de Gartner, alrededor del 75% de las medianas empresas utilizarán al menos un chatbot de RRHH para finales de 2025.
Desde el punto de vista de la protección de datos, aquí se presentan varios desafíos. Una cuestión central es si los chatbots tienen acceso a datos personales de empleados o incluso los introducen en LLMs externos. El Comisionado de Hesse para la Protección de Datos y la Libertad de Información ha publicado en 2024 un documento de posición que define requisitos estrictos para tales aplicaciones:
- Clara separación entre consultas generales e información personalizada
- Mecanismos de autenticación trazables
- No transferencia de datos personales a proveedores externos de LLM sin garantías adecuadas
- Registro de todos los accesos a datos
- Información transparente a los empleados
Para Anna, la directora de RRHH, aquí se presenta la oportunidad de optimizar procesos administrativos. Sin embargo, debería asegurarse de elegir soluciones de IA alojadas localmente o desarrolladas específicamente para el área de RRHH, que no transfieran datos a servicios externos o al menos implementen medidas de protección adecuadas.
Una solución técnica ofrece el concepto de Retrieval Augmented Generation (RAG). Aquí, los datos empresariales permanecen locales, mientras que el LLM solo se alimenta con información relevante, no personal. Según una encuesta de Forrester Research, ya el 42% de las empresas conscientes de la protección de datos utilizan chatbots de RRHH basados en RAG.
Medidas técnicas y organizativas para la IA en RRHH conforme a la protección de datos
Para operar sistemas de IA en el área de RRHH en conformidad con el RGPD, se requieren medidas técnicas y organizativas (TOMs) específicas. Estas deben adaptarse a los riesgos particulares de los sistemas algorítmicos y ajustarse continuamente a los nuevos desarrollos tecnológicos.
Protección de datos desde el diseño (Privacy by Design)
Privacy by Design no es solo un requisito legal según el Art. 25 RGPD, sino un concepto fundamental para el uso responsable de la IA. Significa integrar la protección de datos desde el principio en el desarrollo y configuración de sistemas de IA – no como un añadido posterior.
Para medianas empresas, esto significa concretamente: al seleccionar soluciones de IA para RRHH, deben preferirse opciones favorables a la protección de datos. Una investigación actual de la Oficina Estatal Bávara de Supervisión de Protección de Datos muestra que solo el 36% de los sistemas de IA para RRHH evaluados implementan completamente Privacy by Design.
Medidas prácticas para Privacy by Design en IA para RRHH incluyen:
- Minimización de datos: limitación a los datos realmente necesarios (por ejemplo, no analizar perfiles privados de redes sociales en el reclutamiento)
- Procesamiento local de datos: cuando sea posible, los análisis de IA deberían realizarse en servidores locales en lugar de en la nube
- Seudonimización: especialmente en People Analytics, los datos deberían procesarse seudonimizados
- Configuraciones predeterminadas: configuraciones por defecto favorables a la protección de datos en todas las aplicaciones de IA
- Períodos de conservación: eliminación automática de datos después de períodos definidos
Un ejemplo de mejores prácticas es la implementación de privacidad diferencial (Differential Privacy). Esta técnica matemática añade «ruido» controlado a los conjuntos de datos para evitar la identificación de individuos, mientras se mantiene la validez estadística. Según un estudio del Instituto de Investigación del Mercado Laboral y Profesional (IAB), ya el 24% de las medianas empresas innovadoras utilizan estas técnicas.
Seguridad de datos y controles de acceso
La seguridad de los sistemas de IA en el área de RRHH requiere especial atención. Los datos de personal representan un objetivo atractivo para ciberdelincuentes, y los sistemas de IA traen sus propios riesgos de seguridad. El número de violaciones de protección de datos reportadas relacionadas con datos de RRHH ha aumentado un 37% según el informe de situación 2024 de BSI.
Especialmente importantes son los derechos de acceso finamente graduados. Según el principio del privilegio mínimo (Least Privilege), tanto empleados como sistemas de IA deberían poder acceder solo a los datos que sean absolutamente necesarios para sus tareas. Un sistema de IA para reclutamiento, por ejemplo, no necesita acceso a datos de salud o información salarial.
Otras medidas centrales de seguridad para sistemas de IA en RRHH:
- Cifrado de extremo a extremo en la transmisión de datos personales sensibles
- Métodos seguros de autenticación con autenticación de dos factores
- Auditorías de seguridad regulares y pruebas de penetración para aplicaciones de IA
- Protección contra inyecciones de prompt y otros ataques específicos de IA
- Monitorización automatizada de patrones de acceso inusuales y fugas de datos
Para Markus, el director de TI, el último punto es especialmente relevante. Su entorno de sistemas heterogéneo requiere un concepto de seguridad integral. Una solución actual son los sistemas de Gestión de Información y Eventos de Seguridad (SIEM) con apoyo de IA, que pueden detectar comportamientos anómalos.
Un aspecto a menudo pasado por alto es la protección de los propios modelos de IA. Los ataques de extracción de modelos o ataques adversarios pueden afectar la funcionalidad o revelar información confidencial. La Conferencia de Autoridades Independientes de Protección de Datos de la Federación y los Estados recomienda en su guía orientativa «IA en RRHH» (2024) pruebas de seguridad regulares específicamente para estas amenazas.
Transparencia y explicabilidad de las decisiones de IA
La transparencia no es solo un principio ético, sino también un requisito legal. Los artículos 13 y 14 del RGPD exigen que las personas afectadas sean informadas sobre la «lógica» de los sistemas automatizados de toma de decisiones. La Ley de IA va aún más allá y exige para los sistemas de IA de alto riesgo – entre los que se incluyen muchas aplicaciones de RRHH – un alto grado de transparencia y explicabilidad.
En la práctica, esto plantea desafíos para las empresas. Los complejos modelos de deep learning a menudo se consideran «cajas negras» cuyos procesos de decisión son difíciles de entender. Un estudio del Instituto de Tecnología de Karlsruhe (KIT) de 2024 muestra que solo el 29% de los sistemas de IA utilizados en el área de RRHH son completamente explicables.
Los enfoques modernos para mejorar la explicabilidad incluyen:
- LIME (Local Interpretable Model-agnostic Explanations): Esta técnica explica predicciones individuales de un modelo, mostrando qué factores han influido más fuertemente en la decisión
- SHAP (SHapley Additive exPlanations): Un enfoque matemáticamente fundado para determinar la influencia de diversas características
- Counterfactual Explanations: Explicaciones que muestran qué cambios habrían llevado a un resultado diferente («Si tuviera tres años más de experiencia profesional, su puntuación de coincidencia sería un 25% mayor»)
- Plain-Language-Explanations: Explicaciones en lenguaje natural generadas por IA de procesos de decisión complejos
Para Anna, la directora de RRHH, esto es especialmente relevante. Debe poder explicar a sus empleados cómo los sistemas de IA llegan a recomendaciones para formaciones o desarrollo profesional. Según una encuesta de DGFP de 2024, la aceptación de recomendaciones de IA aumenta un 62% cuando los empleados entienden la base de la decisión.
Mejor práctica: Una oficina de ingeniería de tamaño medio ha desarrollado, en colaboración con la Universidad de Stuttgart, un «Panel de explicación de IA» que visualiza los factores de influencia más importantes para cada decisión de IA en el área de RRHH y los explica en lenguaje comprensible. Este enfoque no solo ha mejorado la conformidad con el RGPD, sino que también ha aumentado significativamente la aceptación entre los empleados.
Documentación y obligaciones de acreditación
El principio de responsabilidad proactiva (Accountability) según el Art. 5, párrafo 2 del RGPD exige que las empresas puedan demostrar el cumplimiento de los principios de protección de datos. Para los sistemas de IA en el área de RRHH, esto significa una documentación exhaustiva, que también es cada vez más exigida por la Ley de IA.
Las empresas deben documentar especialmente:
- Bases legales para el uso de sistemas de IA
- Evaluaciones de impacto de protección de datos realizadas
- Medidas técnicas y organizativas
- Pruebas de no discriminación y equidad
- Procesos de entrenamiento y evaluación de los modelos de IA
- Medidas para garantizar la calidad de los datos
- Registros sobre consentimientos y su revocación
Según una investigación de la Sociedad para la Protección de Datos y Seguridad de Datos (GDD), solo el 41% de las medianas empresas cumplen completamente con estas obligaciones de documentación. Esto representa un riesgo considerable, ya que en controles de protección de datos o en caso de un incidente, la prueba del cumplimiento puede ser decisiva.
Un enfoque práctico es la implementación de un «Registro de IA», en el que se documenten todos los sistemas de IA utilizados con sus propiedades esenciales, riesgos y medidas de protección. Esto no solo facilita el cumplimiento del RGPD, sino que también prepara para los futuros requisitos de la Ley de IA.
Para Thomas, el gerente de la empresa de maquinaria especializada, esto significa: debería establecer un proceso de documentación estructurado antes de implementar las primeras soluciones de IA. Herramientas como las plantillas modelo proporcionadas por la Oficina Federal de Seguridad de la Información (BSI) pueden ayudar.
Un enfoque innovador es la «Cabina de protección de datos», que varias medianas empresas ya han implementado con éxito. Visualiza el estado de cumplimiento de todos los sistemas de IA en tiempo real y genera automáticamente documentación actualizada para inspecciones o consultas de las autoridades de protección de datos.
Roles y responsabilidades en la implementación de IA en el área de RRHH
El uso exitoso y legalmente conforme de la IA en recursos humanos requiere una comprensión clara de los roles. Diferentes partes interesadas deben colaborar y asumir sus responsabilidades específicas. Una distribución poco clara de tareas a menudo conduce a brechas de cumplimiento e implementación ineficiente.
Tareas del Delegado de Protección de Datos
El Delegado de Protección de Datos (DPD) juega un papel central en la introducción conforme a la protección de datos de sistemas de IA. Su tarea es mediar entre los requisitos de protección de datos y las necesidades operativas de la empresa. Según un estudio de Bitkom, en el 76% de las empresas que utilizan con éxito IA en el área de RRHH, los delegados de protección de datos están involucrados tempranamente.
Entre las tareas concretas del DPD en el contexto de IA para RRHH se incluyen:
- Asesoramiento en la selección de soluciones de IA conformes con la protección de datos
- Apoyo en la realización de evaluaciones de impacto de protección de datos
- Supervisión del cumplimiento del RGPD y la Ley de IA
- Formación de los empleados en aspectos de protección de datos de la IA
- Comunicación con las autoridades supervisoras
- Revisión de registros de actividades de tratamiento y contratos de encargado del tratamiento
Un desafío para muchas medianas empresas: el DPD debe tener conocimientos especializados suficientes sobre tecnologías de IA. Una encuesta de la Asociación Profesional de Delegados de Protección de Datos de Alemania (BvD) muestra que solo el 38% de los DPD en medianas empresas se sienten suficientemente cualificados para evaluar sistemas de IA.
Un enfoque práctico para Thomas, el gerente: debería facilitar a su DPD formación continua en el área de IA y aprendizaje automático o, si es necesario, recurrir a experiencia externa. El BvD ofrece desde 2024 una cualificación adicional «Cumplimiento de IA», que está específicamente adaptada a las necesidades de los delegados de protección de datos.
Responsabilidades de los departamentos de RRHH y TI
La implementación exitosa de IA en el área de personal requiere una estrecha colaboración entre RRHH y TI. Ambos departamentos aportan perspectivas y competencias diferentes que idealmente se complementan. Un estudio de Deloitte muestra que las empresas con fuerte colaboración entre RRHH y TI implementan proyectos de IA exitosos 2,6 veces más frecuentemente.
El departamento de RRHH típicamente tiene responsabilidad por:
- Definición de los requisitos técnicos para sistemas de IA
- Garantizar el cumplimiento de requisitos del derecho laboral
- Comunicación con empleados y candidatos
- Evaluación de la usabilidad práctica y el valor añadido
- Gestión del cambio y promoción de la aceptación
- Formación de los usuarios en los departamentos especializados
El departamento de TI, por su parte, es responsable de:
- Implementación técnica e integración en sistemas existentes
- Garantía de seguridad de datos e integridad del sistema
- Monitorización del rendimiento y disponibilidad
- Implementación técnica de medidas de protección de datos
- Evaluación de riesgos técnicos y vulnerabilidades
- Gestión de servicios en la nube e interfaces
Para Anna, la directora de RRHH, y Markus, el director de TI, esto significa: deberían establecer un comité directivo conjunto para proyectos de IA. Según la recomendación del Centro de Competencia para Medianas Empresas 4.0, este debería reunirse al menos mensualmente y coordinar todas las iniciativas de IA en curso.
Un ejemplo de mejores prácticas del sector de medianas empresas: Un proveedor del sector automovilístico con 180 empleados ha establecido un «AI Governance Board», en el que están representados RRHH, TI, protección de datos, comité de empresa y dirección. Este decide sobre nuevas iniciativas de IA y revisa regularmente los sistemas existentes. Mediante este enfoque estructurado, se pudieron minimizar los riesgos de cumplimiento y aumentar significativamente la aceptación de los usuarios.
Comité de empresa y participación de los empleados
El comité de empresa tiene, según § 87, párrafo 1, nº 6 BetrVG, un derecho obligatorio de codecisión en la introducción y aplicación de instalaciones técnicas que sean adecuadas para monitorizar el comportamiento o rendimiento de los empleados. Esto abarca prácticamente todos los sistemas de IA en el área de RRHH.
La participación temprana del comité de empresa no solo es legalmente obligatoria, sino también estratégicamente sensata. Un estudio de la Fundación Hans-Böckler demuestra que las empresas con un comité de empresa activo tienen un 34% menos de problemas de aceptación en la introducción de IA que aquellas sin representación de los trabajadores.
Campos concretos de participación son:
- Negociación de acuerdos de empresa sobre sistemas de IA
- Establecimiento de límites para el uso de datos y monitorización
- Regulaciones sobre la transparencia de decisiones algorítmicas
- Cogestión de medidas de formación y cualificación
- Definición de criterios de evaluación para sistemas de IA
- Regulaciones sobre protección de datos de los empleados
Un desarrollo actual: La Confederación Alemana de Sindicatos (DGB) ha publicado en 2024 un catálogo modelo de acuerdos de empresa para IA en recursos humanos, que puede servir como guía orientativa. Este aborda específicamente los desafíos especiales de los sistemas de IA como sesgo, transparencia y protección de datos.
Además de la participación formal del comité de empresa, la participación directa de los empleados está ganando importancia. Un diseño participativo aumenta demostrablemente la aceptación. Según una encuesta del Instituto de Investigación del Mercado Laboral y Profesional (IAB), la aceptación de sistemas de IA es un 57% mayor cuando los empleados participan activamente en el diseño.
Para Thomas, el gerente de la empresa de maquinaria especializada, se recomienda un proceso de participación en varias etapas: información de la plantilla sobre proyectos de IA planificados, talleres para recabar requisitos, fase de prueba con usuarios seleccionados y retroalimentación regular para la optimización.
Proveedores de servicios externos y encargados del tratamiento
La mayoría de las medianas empresas recurren a proveedores de servicios externos para proyectos de IA – ya sea para plataformas de IA basadas en la nube, software especializado de RRHH o servicios de consultoría. Esto generalmente lleva a un encargo del tratamiento según el Art. 28 RGPD con requisitos especiales.
Un análisis de Forrester muestra que el 83% de las medianas empresas en Alemania involucran a proveedores externos para aplicaciones de IA en el área de RRHH. El diseño legalmente conforme de esta colaboración es decisivo para el cumplimiento del RGPD.
Merecen especial atención los siguientes aspectos:
- Celebración de un contrato detallado de encargado del tratamiento (DPA)
- Regulaciones claras sobre limitación de finalidad y eliminación de datos
- Acuerdos sobre medidas técnicas y organizativas
- Regulaciones sobre subencargados (especialmente relevante en servicios en la nube)
- Medidas para garantizar los derechos de los interesados
- Documentación de derechos y obligaciones de instrucción
En servicios de IA, especialmente soluciones en la nube fuera de la UE, surge además la cuestión de las transferencias internacionales de datos. Desde la sentencia «Schrems II» y con el nuevo Marco de Privacidad de Datos UE-EE.UU., los requisitos han evolucionado. Un análisis de la asociación sectorial Bitkom muestra que el 57% de las medianas empresas tienen incertidumbres aquí.
Markus, el director de TI, debería prestar especial atención a las ubicaciones de datos al seleccionar proveedores de servicios de IA. Idealmente, los datos personales deberían procesarse exclusivamente en la UE. Si esto no es posible, deben implementarse medidas de protección adicionales como Cláusulas Contractuales Estándar (SCCs) con medidas técnicas adicionales.
Un consejo práctico: La Conferencia de Protección de Datos (DSK) ha publicado en 2024 un catálogo de verificación actualizado para encargados del tratamiento en el área de IA. Este puede servir como lista de verificación para la selección y revisión de proveedores de servicios y contiene requisitos específicos para aplicaciones de RRHH.
Implementación práctica: paso a paso hacia la IA en RRHH conforme al RGPD
La introducción de sistemas de IA en el área de RRHH requiere un enfoque estructurado que considere los requisitos de protección de datos desde el principio. Un proceso de implementación bien pensado minimiza los riesgos y garantiza el cumplimiento del RGPD y la Ley de IA.
La evaluación de impacto relativa a la protección de datos para sistemas de IA
La evaluación de impacto relativa a la protección de datos (EIPD) es obligatoria para muchas aplicaciones de IA en el área de RRHH. Según el Art. 35 RGPD, debe realizarse cuando un tratamiento «entrañe probablemente un alto riesgo para los derechos y libertades de las personas físicas».
Las autoridades europeas de protección de datos han aclarado en 2024 en un documento de posición conjunto: los sistemas de IA para selección de personal, evaluación de rendimiento o análisis de comportamiento requieren fundamentalmente una EIPD. Sin embargo, una encuesta de la Sociedad para la Protección de Datos y Seguridad de Datos muestra que solo el 47% de las medianas empresas aplican correctamente este instrumento en proyectos de IA.
Una EIPD para sistemas de IA en RRHH debería abordar riesgos específicos:
- Riesgo de discriminación y sesgo algorítmico
- Posible falta de transparencia de algoritmos complejos
- Peligro de vigilancia excesiva de los empleados
- Riesgos en el tratamiento de categorías sensibles de datos personales
- Posibles imprecisiones y decisiones erróneas de la IA
- Problemas de aceptación e impactos psicológicos
Un enfoque pragmático para Anna, la directora de RRHH: la EIPD debería entenderse como un proceso continuo, no como una documentación única. La Oficina Federal de Seguridad de la Información (BSI) ofrece específicamente para medianas empresas una herramienta EIPD práctica que considera riesgos específicos de la IA.
Especialmente valioso es consultar tempranamente al delegado de protección de datos. Una investigación de la Oficina Estatal Bávara de Supervisión de Protección de Datos muestra que la calidad de la EIPD es un promedio de 63% mayor cuando el DPD se involucra tempranamente.
Selección de soluciones y proveedores de IA favorables a la protección de datos
La selección del sistema de IA adecuado y del proveedor es decisiva para el cumplimiento del RGPD. No todas las soluciones disponibles cumplen los requisitos de protección de datos en la misma medida. Una evaluación estructurada puede evitar decisiones erróneas costosas.
Según un análisis de la asociación eco de la economía de internet, solo alrededor del 42% de las soluciones de IA para RRHH disponibles en el mercado cumplen todos los requisitos esenciales de protección de datos. Para medianas empresas, vale la pena una revisión exhaustiva basada en criterios concretos:
- Localidad de datos: ¿Se procesan los datos exclusivamente en la UE?
- Transparencia: ¿Ofrece el proveedor explicaciones comprensibles sobre algoritmos?
- Minimización de datos: ¿Permite el sistema configuraciones granulares para la recopilación de datos?
- Certificaciones: ¿Dispone el proveedor de certificados relevantes (por ejemplo, ISO 27001, TISAX)?
- Configurabilidad: ¿Se pueden adaptar las configuraciones de protección de datos a las propias necesidades?
- Documentación: ¿Proporciona el proveedor documentación exhaustiva de cumplimiento?
- Auditabilidad: ¿Permite el sistema verificaciones y registros?
Para Markus, el director de TI, se recomienda un proceso de selección estructurado. Un procedimiento probado se basa en el marco «Privacy and Security by Design» para sistemas de IA desarrollado por el Instituto Fraunhofer:
- Creación de un catálogo detallado de requisitos con ponderación
- Investigación de mercado y preselección de proveedores potenciales
- Consulta escrita sobre características de protección de datos y seguridad
- Evaluación práctica en un entorno de prueba protegido
- Realización de una EIPD para los candidatos finales
- Negociación de contratos con acuerdos detallados de protección de datos
Un desarrollo innovador: asociaciones sectoriales como Bitkom y BvD han iniciado en 2024 un sello de calidad de protección de datos específicamente para aplicaciones de IA en RRHH. Este evalúa sistemas según más de 80 criterios y facilita la orientación a las empresas.
Formación y sensibilización de los empleados
Incluso la mejor tecnología de IA solo puede utilizarse en conformidad con el RGPD si los usuarios están adecuadamente formados. Por lo tanto, un programa de formación exhaustivo es esencial. Según un estudio del Instituto de Derecho Laboral Aplicado, el 68% de las infracciones de protección de datos con sistemas de IA ocurrieron debido a la falta de sensibilización de los empleados.
Para diferentes grupos objetivo son relevantes distintos contenidos formativos:
Para empleados de RRHH:
- Bases legales del uso de IA en recursos humanos
- Interpretación y evaluación crítica de resultados de IA
- Documentación correcta de decisiones algorítmicas
- Gestión de derechos de los interesados (acceso, rectificación, supresión)
- Reconocimiento de potenciales discriminaciones por algoritmos
Para directivos:
- Uso responsable de recomendaciones de IA
- Comunicación transparente con los empleados sobre el uso de IA
- Equilibrio entre ganancias de eficiencia y derechos de personalidad
- Evitar confianza excesiva en predicciones algorítmicas
Para todos los empleados:
- Comprensión básica de los sistemas de IA utilizados
- Derechos propios en relación con el tratamiento de datos
- Canales de notificación en caso de errores o problemas supuestos
- Conciencia sobre protección de datos en el trato diario con herramientas de IA
Para Anna, la directora de RRHH del proveedor de SaaS, se ofrecen formatos de formación modernos. Módulos de microaprendizaje, talleres interactivos y casos prácticos han demostrado ser particularmente efectivos. Según una encuesta del Instituto Alemán de Compliance, la aplicación de lo aprendido aumenta un 43% cuando las formaciones utilizan escenarios prácticos.
Un enfoque innovador de la práctica: Un fabricante de equipamiento de tamaño medio ha desarrollado un «Permiso de conducir IA» para diferentes grupos de usuarios. Los empleados solo pueden utilizar ciertas funciones de IA después de una certificación exitosa. Esto ha llevado a una reducción demostrable de incidentes de protección de datos del 76%.
Monitoreo y mejora continua
Los sistemas de IA no son productos estáticos – evolucionan, aprenden de nuevos datos y deben revisarse regularmente. Por lo tanto, un monitoreo continuo es esencial para el cumplimiento permanente del RGPD. Según una encuesta del Instituto de Protección de Datos y Seguridad de la Información, el 58% de los sistemas de IA en el área de personal presentan riesgos adicionales después de un año de operación que no eran reconocibles en la evaluación inicial.
Un sistema de monitoreo efectivo debería incluir los siguientes aspectos:
- Verificación regular del rendimiento y precisión del modelo
- Análisis continuo de sesgo y discriminación
- Auditoría de patrones de uso y permisos de acceso
- Monitoreo de fuentes de datos y calidad de datos
- Verificación del cumplimiento de requisitos legales actuales
- Mecanismos de retroalimentación para usuarios e interesados
Especialmente importante en sistemas de aprendizaje automático es el monitoreo del «Model Drift». Este describe el fenómeno de que los modelos pueden perder precisión con el tiempo cuando la realidad se aleja de los datos de entrenamiento. Un estudio de la TU Darmstadt muestra que los modelos de pronóstico para RRHH pierden significativamente precisión después de un promedio de 14 meses sin ajustes regulares.
Para Markus, el director de TI, se recomiendan herramientas de monitoreo automatizadas. Estas supervisan continuamente métricas como precisión, equidad o explicabilidad y alertan en caso de desviaciones. El mercado de tales «Herramientas de Gobernanza de IA» crece rápidamente – según un análisis de IDC, un 47% anual.
Mejores prácticas de medianas empresas: Un fabricante de tecnología médica con 180 empleados ha establecido un «Comité de Ética de IA» que evalúa trimestralmente todos los sistemas de IA utilizados. Este equipo interdisciplinario – compuesto por RRHH, TI, protección de datos, comité de empresa y departamentos especializados – evalúa métricas, experiencias de usuarios y nuevos desarrollos legales. Este enfoque no solo ha mejorado el cumplimiento, sino que también ha llevado a una aceptación de usuarios significativamente mayor.
Mejores prácticas y casos de estudio de medianas empresas
El marco teórico es importante, pero ¿cómo implementan concretamente las medianas empresas la IA conforme al RGPD en el área de RRHH? Ejemplos exitosos muestran que la implementación legalmente conforme y la capacidad de innovación pueden ir de la mano. Aprenda de empresas que ya han encontrado este equilibrio.
Factores de éxito en la implementación de IA para RRHH conforme al RGPD
Un meta-estudio del Centro de Competencia para Medianas Empresas 4.0 ha identificado los factores decisivos de éxito en la introducción de sistemas de IA conformes con la protección de datos en el área de personal. El análisis de 78 medianas empresas muestra claros patrones de implementaciones exitosas.
Los cinco factores de éxito más importantes son:
- Responsabilidades claras: Las empresas con estructuras de gobernanza de IA definidas alcanzaron una tasa de cumplimiento un 73% mayor que aquellas con responsabilidades difusas.
- Enfoque incremental: La introducción gradual con proyectos piloto y ajuste continuo llevó a un 58% menos de incidentes de protección de datos que en despliegues integrales.
- Participación temprana de partes interesadas: La participación del comité de empresa, delegados de protección de datos y usuarios finales desde el principio redujo las resistencias a la implementación en un promedio del 67%.
- Revisión regular: Las empresas con procesos formalizados de revisión para sistemas de IA identificaron el 82% de los problemas de cumplimiento antes de una potencial escalada.
- Comunicación transparente: La información abierta sobre propósito, funcionamiento y límites de los sistemas de IA aumentó la aceptación de los empleados en un promedio del 76%.
Un enfoque particularmente efectivo es la creación de un «equipo de competencia de IA» interdisciplinario. Según una encuesta del servicio de asesoramiento en innovación de la IHK, las empresas con tales equipos registran una tasa de éxito un 54% mayor en la implementación de IA conforme a la protección de datos.
Para Thomas, el gerente de la empresa de maquinaria especializada, se ofrece un modelo híbrido: un equipo central de IA interno se complementa con expertos externos para cuestiones específicas. Este modelo ha demostrado su eficacia en el 81% de las implementaciones exitosas.
Lecciones aprendidas: obstáculos comunes y cómo evitarlos
De las experiencias de medianas empresas se pueden identificar tropiezos típicos que ponen en peligro la introducción de IA conforme al RGPD en el área de personal. Un análisis de la Asociación Federal de Medianas Empresas (BVMW) ha revelado las áreas problemáticas más frecuentes.
Obstáculo 1: Base de datos insuficiente
Muchos proyectos de IA fracasan debido a datos de entrenamiento deficientes. Un proveedor de servicios de personal con 120 empleados quería introducir un sistema de IA para predecir la fluctuación. Sin embargo, como la empresa solo disponía de datos históricos limitados, el sistema produjo resultados sesgados que perjudicaban a ciertos grupos de empleados.
Solución: La empresa cambió a un enfoque híbrido con componentes basados en reglas y limitó el uso de IA a áreas con suficiente base de datos. Paralelamente, se estableció un proceso estructurado de recopilación de datos para mejorar la base de datos a largo plazo.
Obstáculo 2: Falta de transparencia
Un fabricante de electrónica introdujo un sistema de IA para el desarrollo de personal, pero no informó adecuadamente sobre su funcionamiento. Cuando los empleados recibieron recomendaciones de formación sorprendentes, surgieron desconfianza y resistencia. La autoridad de supervisión de protección de datos tomó conocimiento del sistema a través de quejas.
Solución: La empresa desarrolló un «Panel de IA» que hace transparente para cada usuario qué datos influyen y cómo en las recomendaciones. Adicionalmente, se ofrecieron talleres en los que se explicó el funcionamiento. La aceptación aumentó en tres meses del 34% al 79%.
Obstáculo 3: Soluciones excesivamente complejas
Una empresa logística implementó un suite completo de IA para todos los procesos de RRHH. La complejidad sobrecargó tanto al departamento de TI como al de RRHH. Los requisitos de protección de datos no pudieron implementarse completamente, y la integración en sistemas existentes falló parcialmente.
Solución: La empresa volvió a un enfoque modular y comenzó con un caso de uso claramente delimitado (gestión de candidatos). Después de una implementación y formación exitosas, se añadieron gradualmente más módulos, cada uno con su propia EIPD y procesos adaptados.
Para Anna, la directora de RRHH, el riesgo de expectativas irrealistas es especialmente relevante. Una encuesta de la consultora Kienbaum muestra que el 64% de los proyectos de IA en el área de RRHH fracasan debido a expectativas excesivas o poco claras. Por lo tanto, un caso de negocio detallado con métricas realistas y una clara definición de éxito son esenciales.
Análisis de coste-beneficio: ROI de la IA conforme a la protección de datos en RRHH
La implementación de sistemas de IA conformes con el RGPD en el área de RRHH requiere inversiones, pero estas compensan. Un análisis fundamentado de coste-beneficio ayuda a establecer las prioridades correctas y maximizar el retorno de la inversión (ROI).
Los costes directos típicamente incluyen:
- Tarifas de licencia para software y plataformas de IA
- Ajustes de hardware e infraestructura
- Costes de implementación e integración
- Costes de formación y gestión del cambio
- Adaptaciones para protección de datos y cumplimiento
- Costes de consultoría y auditoría
Frente a estos costes hay diversos potenciales de beneficio. Un estudio actual de PwC cuantifica por primera vez sistemáticamente el ROI de la IA en el área de RRHH teniendo en cuenta el cumplimiento de la protección de datos:
- Reclutamiento: Reducción del tiempo de contratación en un promedio del 31%, reducción de costes de reclutamiento en un 27%
- Incorporación: Aumento de la productividad de nuevos empleados en un 23% mediante incorporación personalizada
- Desarrollo de personal: 19% mayor efectividad de formación mediante rutas de aprendizaje asistidas por IA
- Administración: Reducción de la carga administrativa en un 34% mediante automatización
- Retención de empleados: Reducción de la fluctuación en un promedio del 18% mediante intervención temprana
Interesantemente, el estudio de PwC también muestra que las empresas que invierten desde el principio en cumplimiento de protección de datos se benefician a largo plazo. Ahorran un promedio del 42% de los costes que surgirían con adaptaciones posteriores y evitan potenciales multas.
Un caso práctico concreto de una mediana empresa: Una empresa de ingeniería mecánica con 160 empleados invirtió 87.000 euros en un sistema de IA conforme al RGPD para reclutamiento y desarrollo de personal. La inversión inicial comprendió 52.000 euros para software e implementación y 35.000 euros para formación, adaptación de procesos y cumplimiento de protección de datos.
Los resultados después de un año:
- Reducción del tiempo dedicado al reclutamiento en un 29% (valor: aprox. 48.000 euros)
- Reducción de los tiempos de vacantes en un 34% (valor: aprox. 112.000 euros)
- Reducción de la fluctuación en un 13% (valor: aprox. 78.000 euros)
- Mayor satisfacción de los empleados gracias a medidas de desarrollo precisas (valor: difícil de cuantificar)
El ROI después de 12 meses fue del 174% – la inversión no solo se había amortizado, sino que ya había creado un valor añadido significativo. Destacable: la empresa invirtió inicialmente el 19% del presupuesto en cumplimiento de protección de datos, evitando así costosas adaptaciones posteriores.
Para Thomas, el gerente, esto significa: una planificación cuidadosa con un presupuesto adecuado para medidas de protección de datos no solo es legalmente obligatoria, sino también económicamente sensata. Según la recomendación de los expertos digitales de BVMW, aproximadamente el 15-20% del presupuesto total para proyectos de IA en el área de RRHH debería preverse para protección de datos y cumplimiento.
Aspectos internacionales y transferencia de datos
En una economía globalizada, muchas medianas empresas operan internacionalmente. Esto conlleva desafíos adicionales de protección de datos en aplicaciones de IA en el área de RRHH, especialmente cuando los datos fluyen a través de fronteras nacionales.
Soluciones de IA basadas en la nube y transferencia a terceros países
La mayoría de las soluciones modernas de IA para el área de RRHH están basadas en la nube. Según una encuesta de Gartner, el 76% de las medianas empresas en Alemania utilizan servicios en la nube para aplicaciones de RRHH, de ellas el 58% con componentes de IA. Esto a menudo plantea la cuestión de la transferencia de datos a terceros países fuera de la UE/EEE.
La situación legal ha evolucionado significativamente con la sentencia Schrems II del TJUE, la desaparición del Privacy Shield y la introducción del nuevo Marco de Privacidad de Datos UE-EE.UU. (DPF). Un análisis actual de Bitkom muestra que el 67% de las medianas empresas están inseguras en la evaluación de transferencias internacionales de datos.
Para el uso conforme al RGPD de soluciones de IA basadas en la nube con transferencia de datos a terceros países, se consideran los siguientes mecanismos de transferencia:
- Marco de Privacidad de Datos UE-EE.UU. (DPF): En vigor desde julio de 2023, permite transferencias de datos a empresas estadounidenses certificadas
- Cláusulas Contractuales Estándar (SCCs): Deben estar en el nuevo formato desde diciembre de 2022 y complementarse con medidas técnicas adicionales
- Normas Corporativas Vinculantes (BCRs): Para transmisiones dentro del grupo, pero con alto esfuerzo de implementación
- Excepciones según Art. 49 RGPD: Aplicables en casos limitados, pero no adecuadas para transmisiones regulares
El mayor desafío radica en las medidas adicionales requeridas. Tras una aclaración del Comité Europeo de Protección de Datos (CEPD) de enero de 2024, las empresas deben aplicar estándares particularmente estrictos para datos de RRHH. Las medidas recomendadas incluyen:
- Fuerte cifrado de extremo a extremo, donde la clave permanece en la UE
- Seudonimización o anonimización de datos antes de la transmisión
- Enfoques de procesamiento dividido, donde el procesamiento de datos sensibles ocurre en la UE
- Implementación de Evaluaciones de Impacto de Transferencia (TIAs) para cada ruta de transmisión de datos
Para Markus, el director de TI, esto significa: al seleccionar soluciones de IA en la nube, deberían preferirse principalmente proveedores con centros de datos en la UE y sociedades en la UE. La iniciativa europea de nube Gaia-X ofrece cada vez más alternativas específicamente orientadas a requisitos europeos de protección de datos.
Un enfoque innovador de la práctica: Un proveedor de la industria automotriz de tamaño medio con sedes internacionales ha implementado una arquitectura de IA híbrida. Los modelos se entrenan y mantienen en una nube de la UE, mientras que las aplicaciones en sedes globales solo transmiten datos cifrados y seudonimizados e interpretan resultados localmente.
Equipos internacionales y tratamiento transfronterizo de datos
Las medianas empresas trabajan cada vez más con equipos internacionales, ya sea a través de sus propias filiales en el extranjero o modelos de trabajo distribuidos. Según un estudio de ifo, el 47% de las medianas empresas alemanas emplean trabajadores en varios países. Esto lleva a flujos de datos complejos en procesos de RRHH.
Surgen desafíos especiales cuando los sistemas de IA deben utilizarse en varias ubicaciones. Según un análisis del Institute for Employment Studies, deben tenerse en cuenta los siguientes aspectos:
- Diferentes leyes nacionales de protección de datos y su interacción con el RGPD
- Diversos requisitos para acuerdos de empresa y codecisión
- Diferencias culturales en la aceptación de procesos de RRHH asistidos por IA
- Diferencias locales en la disponibilidad y calidad de los datos
- Desafíos lingüísticos en aplicaciones de IA multilingües
Un enfoque fundamental es la implementación de un marco internacional de protección de datos. Según un estudio de la International Association of Privacy Professionals (IAPP), las empresas con tal marco tienen un 73% menos de problemas de cumplimiento en proyectos internacionales de IA.
Para Anna, la directora de RRHH de un proveedor de SaaS con equipos internacionales, se recomienda un enfoque modular. Un ejemplo de la práctica: Un proveedor de servicios de TI de tamaño medio ha implementado un modelo de núcleo-satélite, donde las funciones básicas de IA para RRHH se operan centralmente en la UE, mientras que módulos específicos por país corresponden a requisitos locales.
Particularmente efectivo es el nombramiento de campeones locales de protección de datos en cada ubicación. Estos actúan como enlaces entre la gestión central de protección de datos y los requisitos locales. Un análisis de PWC muestra que este enfoque aumenta la tasa de cumplimiento en proyectos internacionales de IA en un 58%.
Diferencias legales y sus efectos en las estrategias de IA
Además del RGPD y la Ley de IA de la UE, las empresas que operan internacionalmente también deben considerar otros marcos legales. El panorama regulatorio global para la IA en el área de RRHH se está volviendo cada vez más complejo. Un análisis de la OCDE muestra que hasta 2025, más de 60 países habrán implementado regulaciones específicas de IA.
Especialmente relevantes para medianas empresas son:
- EE.UU.: Diferentes regulaciones a nivel estatal, especialmente la Ley de Privacidad del Consumidor de California (CCPA) y su sucesora CPRA, así como la Ley de Sesgo de IA de la Ciudad de Nueva York para aplicaciones de RRHH
- China: La Ley de Protección de Información Personal (PIPL) con estrictos requisitos para el tratamiento de datos de empleados
- Reino Unido: Regulaciones post-Brexit con el UK GDPR y propias regulaciones de IA planificadas
- Brasil: La LGPD (Lei Geral de Proteção de Dados) con requisitos similares al RGPD
- Canadá: La Ley de Protección de la Privacidad del Consumidor (CPPA) y regulaciones específicas para sistemas de decisión automatizados
Estas diferentes regulaciones pueden llevar a conflictos. Un ejemplo: mientras que el RGPD prevé un derecho a la explicación de decisiones automatizadas, tal requisito falta en muchos otros espacios jurídicos. Un estudio del Future of Privacy Forum muestra que el 74% de las empresas que operan internacionalmente tienen dificultades para adaptar sus estrategias globales de IA a marcos legales divergentes.
Para Markus, el director de TI con un entorno de sistemas heterogéneo, se ofrecen los siguientes enfoques:
- Enfoque de estándar de oro: Implementación global de los requisitos más estrictos (típicamente RGPD/Ley de IA)
- Enfoque modular: Configuración adaptable según el espacio jurídico
- Enfoque localizado: Sistemas separados para diferentes espacios jurídicos
Un análisis de Deloitte muestra que el enfoque de estándar de oro, aunque inicialmente más caro, causa a largo plazo los costes totales más bajos y entraña el menor riesgo de cumplimiento. El 67% de las empresas encuestadas que eligieron este enfoque informaron de ahorros significativos de costes en la garantía de cumplimiento a largo plazo.
Un ejemplo de mejores prácticas de medianas empresas: Una empresa tecnológica alemana con filiales en ocho países ha desarrollado un «Marco Global de Cumplimiento de IA». Este se basa en el estándar del RGPD y la Ley de IA, pero contiene módulos de cumplimiento específicos por país. Mediante este enfoque estructurado, la empresa pudo desplegar su estrategia de IA para RRHH globalmente y al mismo tiempo garantizar el cumplimiento local.
Perspectivas futuras: desarrollos en el ámbito de la IA y la protección de datos
La intersección entre IA y protección de datos evoluciona rápidamente. Para medianas empresas es importante no solo cumplir con los requisitos actuales, sino también anticipar desarrollos futuros. Una mirada prospectiva ayuda a establecer correctamente los rumbos estratégicos.
Próximos cambios regulatorios y su significado para RRHH
El entorno regulador para la IA en el área de RRHH se encuentra en continua evolución. Para los próximos años ya se perfilan importantes novedades que las medianas empresas deberían tener en el radar.
La Ley de IA entrará en vigor gradualmente en los próximos años, con plazos de transición escalonados. Según un análisis del grupo asesor europeo AI Alliance, las empresas deben prepararse para el siguiente cronograma:
- 2025: Entrada en vigor de las prohibiciones para aplicaciones de IA inadmisibles
- 2026: Cumplimiento obligatorio para sistemas de alto riesgo (afecta a muchas aplicaciones de RRHH)
- 2027: Aplicación completa de todas las disposiciones
Paralelamente, la Comisión Europea planea varias iniciativas complementarias. Según información de la Oficina de Estrategia Digital de la Comisión, hasta mediados de 2026 se adoptarán las siguientes regulaciones:
- Un Reglamento de privacidad electrónica revisado con regulaciones específicas para servicios de comunicación basados en IA
- Directrices sectoriales específicas para IA en la relación laboral, elaboradas por el Comité Europeo de Protección de Datos
- Una actualización de la Directiva sobre protección de datos de los trabajadores con requisitos explícitos para sistemas algorítmicos de gestión
A nivel nacional, Alemania planea, según el Ministerio de Digitalización, una «Ley de Gobernanza de IA» que contendrá regulaciones complementarias a la Ley de IA de la UE. Un enfoque estará en la codecisión empresarial en sistemas de IA. Según un documento de posición del Ministerio Federal de Trabajo, los comités de empresa recibirán derechos ampliados en el diseño y control de IA en el área de personal en el futuro.
Para Thomas, el gerente, estos desarrollos significan: las implementaciones de IA deberían concebirse desde el principio con miras a futuras regulaciones. Un «Concepto de IA a prueba de futuro», como recomienda el BVMW, debería dejar espacio para ajustes regulatorios y considerar ya hoy aspectos que mañana podrían ser obligatorios.
Tendencias tecnológicas para mayor protección de datos en sistemas de IA
Paralelamente al desarrollo regulatorio, también avanza la innovación tecnológica. Nuevos enfoques prometen superar la dicotomía entre rendimiento de IA y protección de datos. Según un análisis del Instituto Fraunhofer, las siguientes tecnologías adquirirán especial relevancia para el área de RRHH en los próximos años:
1. Aprendizaje federado (Federated Learning)
Esta tecnología permite entrenar modelos de IA sin necesidad de centralizar datos sensibles. En su lugar, el modelo se entrena en dispositivos o servidores locales, y solo los parámetros del modelo –no los datos brutos– se intercambian. Según una previsión de IDC, hasta 2027 aproximadamente el 45% de las aplicaciones de IA para RRHH utilizarán aprendizaje federado.
Un ejemplo de aplicación: Un consorcio europeo de medianas empresas ha creado una plataforma de aprendizaje federado para el desarrollo de personal. Esta permite entrenar modelos de competencia a nivel sectorial sin intercambiar datos sensibles de empleados.
2. Privacidad diferencial (Differential Privacy)
Esta técnica matemática añade «ruido» controlado a conjuntos de datos o resultados de consultas, de modo que no es posible extraer conclusiones sobre individuos, mientras se mantiene la validez estadística. Google, Apple y Microsoft ya utilizan esta tecnología, y proveedores especializados ahora desarrollan implementaciones específicas para RRHH.
Para Markus, el director de TI, es especialmente interesante: según un estudio del MIT, nuevos algoritmos diferencialmente privados alcanzan ahora el 94% de la precisión de sus homólogos no privados – un progreso significativo respecto a generaciones anteriores.
3. Cifrado homomórfico
Esta tecnología permite cálculos sobre datos cifrados sin descifrarlos. Los sistemas de IA pueden así operar sobre datos sensibles de RRHH sin acceso a los datos en claro. Aunque el cifrado homomórfico aún requiere mucha potencia de cálculo, Gartner pronostica que hasta 2027 estarán disponibles implementaciones optimizadas para casos de uso específicos de RRHH.
4. IA explicable (Explainable AI, XAI)
Nuevos métodos hacen las decisiones de IA más transparentes y comprensibles. Esto no solo aborda requisitos regulatorios, sino que también aumenta la aceptación. Según un análisis de Capgemini, el 82% de los proveedores de software de RRHH planean integrar componentes XAI en sus productos hasta 2026.
Un ejemplo innovador: Un proveedor alemán de tecnología de RRHH ha desarrollado un sistema de IA de «caja de cristal» que genera automáticamente una explicación en lenguaje natural para cada recomendación y visualiza los factores de influencia más importantes.
5. Generación de datos sintéticos
Los datos sintéticos imitan las propiedades estadísticas de datos reales, pero no contienen información personal real. Son especialmente adecuados para entrenar modelos de IA cuando los datos reales no pueden utilizarse por razones de protección de datos. Un estudio de la Universidad de Oxford muestra que los generadores modernos de datos sintéticos alcanzan ahora el 87% de la utilidad de datos reales.
Para Anna, la directora de RRHH, este enfoque ofrece interesantes posibilidades para proyectos piloto y pruebas, antes de incluir datos productivos.
Planificación estratégica para medianas empresas
Ante los desarrollos dinámicos tanto en el ámbito regulatorio como tecnológico, las medianas empresas necesitan una estrategia prospectiva. ¿Cómo pueden prepararse óptimamente para el futuro de la IA en el área de RRHH?
Según una encuesta de Boston Consulting Group, las medianas empresas exitosas se caracterizan por un enfoque estructurado en varias fases:
Fase 1: Fundamentos (0-6 meses)
- Desarrollo de competencia en IA y protección de datos mediante formaciones específicas
- Establecimiento de una estructura de gobernanza de IA con responsabilidades claras
- Realización de un análisis de situación del ecosistema de datos de RRHH y su necesidad de protección
- Identificación de «frutas al alcance de la mano» – casos de uso de IA con alto beneficio y bajos riesgos de protección de datos
Fase 2: Implementación (6-18 meses)
- Proyectos piloto de casos de uso seleccionados con concepto integrado de protección de datos
- Desarrollo de un proceso estructurado para evaluaciones de impacto de protección de datos
- Desarrollo de directrices de IA para toda la empresa y programas de formación
- Implementación de mecanismos de monitoreo y auditoría
- Establecimiento de un diálogo continuo con las partes interesadas (empleados, comité de empresa, clientes)
Fase 3: Escalado e innovación (18+ meses)
- Extensión de pilotos exitosos a otras áreas y ubicaciones
- Integración de nuevas tecnologías favorables a la protección de datos en sistemas existentes
- Establecimiento de un consejo de ética de IA con experiencia externa
- Participación en iniciativas sectoriales y estándares para IA responsable
- Desarrollo de aplicaciones de IA diferenciadoras, centradas en la protección de datos, como ventaja competitiva
Un aspecto importante es el principio de «Privacidad por defecto y diseño». Según un estudio del Centro Internacional de Investigación sobre Inteligencia Artificial (IRCAI), las empresas que integran la protección de datos desde el principio en su estrategia de IA reducen sus costes de cumplimiento en un promedio del 56%.
Para Thomas, el gerente de la empresa de maquinaria especializada, se ofrece un enfoque dual: a corto plazo debería apostar por «Compliance+», es decir, no solo cumplir requisitos mínimos, sino establecer la protección de datos como característica de calidad. A largo plazo debería invertir en infraestructura y competencias que puedan adaptarse flexiblemente a nuevos requisitos.
Un ejemplo de mejores prácticas de medianas empresas: Un fabricante de tecnología médica con 190 empleados ha implementado un «Programa de IA preparado para el futuro». Este incluye módulos de IA modulares que pueden adaptarse según desarrollos regulatorios, formaciones continuas para personal clave y un escaneo semestral de cumplimiento que identifica tempranamente nuevos requisitos. Este enfoque proactivo no solo ha proporcionado seguridad jurídica a la empresa, sino que es cada vez más percibido por clientes y socios como factor diferenciador.
FAQ: Preguntas frecuentes sobre IA conforme al RGPD en el ámbito de RRHH
¿Qué aplicaciones de IA en el área de RRHH se consideran sistemas de alto riesgo según la Ley de IA de la UE?
Según la Ley de IA de la UE, las siguientes aplicaciones de IA en RRHH se consideran sistemas de alto riesgo: software de reclutamiento para selección automatizada de candidatos, sistemas para decisiones de promoción, sistemas de evaluación del rendimiento, sistemas de asignación de puestos de trabajo y software para monitorización y evaluación del desempeño laboral. Esta clasificación se debe a que pueden tener impactos sustanciales en las oportunidades profesionales y la existencia económica de las personas. Los sistemas de alto riesgo están sujetos a requisitos especiales: deben tener un sistema de gestión de riesgos, utilizar datos de entrenamiento de alta calidad, proporcionar información transparente al usuario, permitir supervisión humana y mantener documentación técnica detallada. Las empresas deben realizar una evaluación de conformidad para estos sistemas y registrarlos en una base de datos de la UE.
¿Cómo puede una mediana empresa prevenir la discriminación por sistemas de IA en el reclutamiento?
Para prevenir la discriminación por IA en el reclutamiento, las medianas empresas deberían adoptar varias medidas: Primero, revisar y limpiar los datos de entrenamiento de sesgos – los datos históricos de contratación a menudo reflejan prejuicios inconscientes. Segundo, realizar auditorías regulares de equidad que prueben sistemáticamente si el sistema trata a diferentes grupos demográficos por igual. Tercero, complementar siempre las decisiones algorítmicas con revisión humana, especialmente en decisiones de rechazo. Cuarto, definir y documentar criterios transparentes según los cuales el sistema evalúa a los candidatos. Quinto, emplear algoritmos especiales de equidad optimizados para resultados equilibrados. Sexto, monitorizar continuamente el sistema e implementar mecanismos de retroalimentación para detectar tempranamente desventajas sistemáticas. Además, las empresas deberían formar a sus equipos de reclutamiento en reconocer y evitar la discriminación algorítmica.
¿Es suficiente el consentimiento de los empleados para el uso de sistemas de IA en el área de RRHH?
El consentimiento de los empleados para el uso de sistemas de IA en el área de RRHH generalmente no es suficiente y a menudo no es la base legal adecuada. En la relación laboral existe un desequilibrio estructural de poder, por lo que las autoridades de protección de datos ven críticamente la voluntariedad de los consentimientos. El Comité Europeo de Protección de Datos ha enfatizado en sus directrices 05/2020 que los empleadores, debido a la relación de dependencia, solo deberían recurrir a consentimientos en casos excepcionales. En su lugar, como bases legales se consideran principalmente el Art. 6, párrafo 1, lit. b RGPD (ejecución del contrato), el Art. 6, párrafo 1, lit. f RGPD (interés legítimo) o el Art. 88 RGPD en combinación con la legislación nacional de protección de datos de empleados. Particularmente efectiva es la creación de un acuerdo de empresa que regule detalladamente el uso de sistemas de IA y considere los derechos de codecisión del comité de empresa.
¿Qué requisitos se aplican al uso de ChatGPT, Claude u otras herramientas de IA generativa similares en el contexto de RRHH?
Para el uso de herramientas de IA generativa como ChatGPT o Claude en el contexto de RRHH se aplican requisitos especialmente estrictos. En principio, los datos personales de empleados no deben introducirse en estos sistemas sin más, ya que esto constituye una transferencia de datos a terceros. La Conferencia de Protección de Datos (DSK) ha aclarado en 2024 que las herramientas basadas en LLM actualmente no pueden utilizarse de manera conforme al RGPD para datos personales de RRHH si los datos abandonan la UE o se utilizan para el entrenamiento de los modelos. Las medianas empresas deberían apostar por las siguientes alternativas: Primero, soluciones LLM favorables a la protección de datos con alojamiento en la UE y garantías contractuales contra el uso de datos de entrenamiento. Segundo, implementaciones locales o en nube privada como Azure OpenAI con residencia de datos en la UE. Tercero, enfoques de Retrieval Augmented Generation (RAG), donde solo se transmiten al LLM informaciones anonimizadas o seudonimizadas. En caso de uso inevitable de herramientas de IA públicas, deberían establecerse directrices claras sobre qué datos no deben introducirse bajo ninguna circunstancia.
¿Cómo debería diseñarse un acuerdo de empresa para sistemas de IA en el área de personal?
Un acuerdo de empresa para sistemas de IA en el área de personal debería ser exhaustivo y concreto para considerar tanto los derechos de los empleados como los intereses empresariales. Los elementos esenciales son: una descripción precisa de los sistemas de IA utilizados y su funcionamiento, una clara determinación de finalidad con denominación de usos permitidos y excluidos, regulaciones detalladas sobre tipo y alcance de los datos procesados y plazos de conservación, medidas concretas para la transparencia de decisiones algorítmicas, definición de la supervisión humana y posibilidades de intervención, regulaciones sobre derechos de los interesados y su implementación práctica, medidas de cualificación para empleados en el manejo de sistemas de IA, un proceso de evaluación y adaptación, así como un procedimiento de escalada para problemas. El acuerdo debería prever además que se realice una reevaluación en caso de actualizaciones o cambios significativos de los sistemas de IA. Según la recomendación de la Confederación Alemana de Sindicatos (DGB), debería acordarse una limitación temporal con evaluación para recoger experiencias y adaptar las regulaciones.
¿Qué obligaciones de documentación existen para procesos de RRHH asistidos por IA y cómo pueden cumplirse eficientemente?
En procesos de RRHH asistidos por IA existen amplias obligaciones de documentación derivadas del RGPD y la Ley de IA. Debe documentarse: el registro de actividades de tratamiento según el Art. 30 RGPD con descripción detallada del tratamiento por IA, la evaluación de impacto relativa a la protección de datos según el Art. 35 RGPD para aplicaciones de alto riesgo, medidas técnicas y organizativas según el Art. 32 RGPD, procesos para salvaguardar los derechos de los interesados, pruebas sobre la licitud del tratamiento, evaluaciones de riesgos específicas de IA y procedimientos de prueba, documentación del proceso de entrenamiento y validación, así como medidas para prevenir la discriminación. Para un cumplimiento eficiente, los expertos recomiendan: implementación de un sistema de gestión de cumplimiento digital que gestione centralmente esta documentación; uso de sistemas de plantillas para requisitos de documentación recurrentes; integración de pasos de documentación directamente en procesos de desarrollo e introducción de IA; generación automatizada de informes de cumplimiento; revisión y actualización regular de la documentación por responsables y uso de herramientas especializadas de legal tech para gobernanza de IA.
¿Cómo se manejan los equipos internacionales y las diferentes leyes nacionales de protección de datos en aplicaciones de IA para RRHH?
El manejo de equipos internacionales y diferentes leyes nacionales de protección de datos en aplicaciones de IA para RRHH requiere un enfoque estructurado. Las estrategias prácticas incluyen: primero, mapeo de las leyes de protección de datos relevantes para todas las ubicaciones con actualizaciones regulares por expertos locales. Segundo, implementación de un enfoque de estándar de oro que toma los requisitos más estrictos (generalmente RGPD/Ley de IA) como base y prevé extensiones específicas por país. Tercero, creación de un sistema de IA modular con posibilidades de configuración específicas por ubicación que considere requisitos locales. Cuarto, nombramiento de responsables locales de protección de datos que sirven como interfaz entre la gestión global de protección de datos y particularidades locales. Quinto, desarrollo de estándares mínimos globales para aplicaciones de IA en el área de RRHH que se aplican en todas las ubicaciones. Sexto, implementación de medidas técnicas como geofencing para que los datos solo se procesen en regiones donde es legalmente permisible. Especialmente probado es un modelo «hub-and-spoke» con control central de cumplimiento e implementación local.
¿Qué medidas técnicas son necesarias para el almacenamiento y procesamiento seguro de análisis de RRHH generados por IA?
Para el almacenamiento y procesamiento seguro de análisis de RRHH generados por IA son necesarios varios niveles técnicos de protección. Las medidas básicas incluyen: fuerte cifrado tanto en la transmisión (TLS 1.3) como en el almacenamiento (AES-256), controles de acceso granulares según el principio del privilegio mínimo, autenticación multi-factor para todos los accesos a análisis sensibles de RRHH, auditorías de seguridad regulares y pruebas de penetración, sistemas automatizados de monitoreo para detectar patrones de acceso inusuales, registro detallado de todos los accesos y cambios de datos, así como economía de datos mediante rutinas automatizadas de borrado y anonimización. Las medidas de protección específicas de IA incluyen: protección contra ataques adversarios mediante arquitecturas de modelo robustas, medidas contra la extracción e inversión de modelos, implementación de privacidad diferencial para prevenir la reidentificación en análisis agregados, así como separación de resultados de análisis y datos brutos. Especialmente recomendable es el uso de computación confidencial para análisis altamente sensibles, donde los datos permanecen cifrados incluso durante el procesamiento.
¿Cómo se ve una evaluación de impacto relativa a la protección de datos (EIPD) legalmente conforme para un sistema de rendimiento de empleados asistido por IA?
Una EIPD legalmente conforme para un sistema de rendimiento de empleados asistido por IA debe estar metodológicamente estructurada y capturar todos los riesgos relevantes. Debería incluir los siguientes elementos: una descripción sistemática de las operaciones de tratamiento planificadas y finalidades, incluyendo el interés legítimo del empleador; una evaluación de la necesidad y proporcionalidad del tratamiento; un análisis específico de riesgos para los derechos y libertades de los empleados, con especial atención a riesgos de discriminación, impactos psicológicos de evaluación continua y posible propensión a errores del sistema; una evaluación detallada del perfil de riesgo según la Ley de IA; medidas correctivas planificadas para riesgos identificados; un análisis de las rutas y fuentes de flujo de datos; evaluación de la calidad de datos y sus impactos en la equidad de los resultados; análisis de explicabilidad de las decisiones algorítmicas; consulta con comité de empresa y delegado de protección de datos, así como un plan de monitoreo y evaluación. La EIPD debería concebirse como un documento vivo que se revisa y actualiza regularmente, especialmente con cambios en el sistema o nuevos conocimientos sobre riesgos.
¿Qué papel juegan los acuerdos de empresa en la introducción legalmente segura de IA en el área de personal?
Los acuerdos de empresa juegan un papel central en la introducción legalmente segura de IA en el área de personal. Cumplen varias funciones importantes: primero, sirven como base legal específica para el tratamiento de datos según el Art. 88 RGPD en combinación con la legislación nacional sobre protección de datos de empleados y pueden proporcionar una base más estable que consentimientos o intereses legítimos. Segundo, implementan la codecisión legalmente prescrita del comité de empresa, que es obligatoria para instalaciones técnicas de control de rendimiento o comportamiento. Tercero, crean seguridad jurídica mediante reglas claras para todas las partes implicadas y reducen el riesgo de quejas de protección de datos o conflictos laborales. Cuarto, aumentan la aceptación entre empleados a través de su participación indirecta a través del comité de empresa. Según un análisis del Instituto Hugo Sinzheimer, las empresas con acuerdos de empresa específicos para IA muestran un 67% menos de conflictos legales y una aceptación de usuario un 43% mayor que aquellas sin tales acuerdos.