Riesgos al filtrar currículums o evaluar personas
La inteligencia artificial generativa ya está entrando en los departamentos de recursos humanos. Se utiliza para resumir currículums, redactar ofertas de empleo, clasificar candidaturas, sugerir preguntas para entrevistas, detectar patrones en perfiles profesionales e incluso apoyar evaluaciones de desempeño o encaje con un puesto. Sobre el papel, parece una solución eficiente: ahorra tiempo, reduce carga operativa y ayuda a gestionar grandes volúmenes de información. Sin embargo, en protección de datos y en cumplimiento normativo, la rapidez no equivale a legitimidad.
Cuando una empresa utiliza IA generativa para filtrar currículums o evaluar personas, no está manejando solo tecnología. Está tratando datos personales de candidatos o empleados y, en muchos casos, puede estar influyendo en decisiones que afectan de forma relevante a esas personas. Eso obliga a extremar la prudencia desde la perspectiva del RGPD, la LOPDGDD y el marco europeo sobre inteligencia artificial.
La primera idea clave es esta: usar IA en recursos humanos no está prohibido, pero tampoco vale todo. El hecho de que una herramienta sea útil no significa que su uso sea automáticamente lícito, proporcionado o éticamente aceptable. En selección y evaluación de personas, los riesgos son especialmente altos porque se combinan datos personales, posibles sesgos, decisiones con impacto profesional y una fuerte asimetría entre la organización y la persona evaluada.
La IA en RR. HH. no es neutra
Uno de los errores más frecuentes es presentar estas herramientas como simples asistentes objetivos. En la práctica, una IA que resume, puntúa, ordena o destaca candidatos ya está condicionando el proceso. Aunque formalmente la decisión final la tome una persona, si esa persona se limita a aceptar el resultado generado por la herramienta sin revisión crítica, la intervención humana puede ser insuficiente.
Esto es especialmente delicado cuando el sistema ayuda a descartar candidaturas, priorizar perfiles o valorar competencias. Ahí no hablamos solo de automatización administrativa, sino de una posible afectación significativa al acceso al empleo o a la evolución profesional. Y eso exige un análisis jurídico serio.
Beneficios reales, pero no absolutos
La IA generativa puede aportar ventajas en recursos humanos, y conviene reconocerlas:
- permite resumir grandes volúmenes de currículums;
- agiliza tareas repetitivas;
- ayuda a redactar ofertas, respuestas o comunicaciones;
- facilita cierta homogeneidad documental;
- puede apoyar procesos internos de organización.
Ahora bien, esos beneficios no justifican por sí mismos cualquier tratamiento. Una herramienta útil puede seguir siendo problemática si trata más datos de los necesarios, si no explica cómo llega a sus conclusiones o si genera recomendaciones con sesgos ocultos.
Riesgos principales: privacidad, sesgo y decisiones injustas
El uso de IA generativa en recursos humanos presenta varios riesgos relevantes.
El primero es la opacidad. Muchas personas no saben que su candidatura está siendo tratada por sistemas automatizados o semiautomatizados, ni entienden qué criterios se están usando para clasificarla.
El segundo es el sesgo. Si la herramienta reproduce patrones históricos o ha sido configurada con criterios poco neutrales, puede perjudicar indirectamente a determinadas personas o perfiles. Eso puede generar decisiones aparentemente técnicas pero materialmente discriminatorias.
El tercero es la minimización insuficiente. En ocasiones se introducen en la herramienta currículums completos, cartas de presentación, notas internas, comentarios de entrevistas o información adicional innecesaria. Cuantos más datos se cargan, mayor es el riesgo.
El cuarto es la inexactitud. La IA generativa puede resumir mal un perfil, interpretar de forma errónea una experiencia profesional o atribuir relevancia a elementos irrelevantes.
El quinto es el riesgo de decisiones automatizadas o altamente automatizadas. Si la herramienta influye de forma determinante en quién avanza, quién queda fuera o cómo se valora a una persona, el nivel de exigencia legal aumenta mucho.
RGPD y LOPDGDD: qué exigen realmente
Desde la perspectiva del RGPD, filtrar currículums o evaluar personas con IA es un tratamiento de datos personales. Eso significa que la empresa debe cumplir, entre otros, con estos principios:
- licitud, lealtad y transparencia;
- limitación de la finalidad;
- minimización de datos;
- exactitud;
- integridad y confidencialidad;
- responsabilidad proactiva.
La organización debe poder explicar para qué usa la herramienta, qué datos introduce, qué resultados obtiene, qué peso tienen esos resultados y qué salvaguardas ha implantado.
La LOPDGDD, en el contexto español, complementa este marco y refuerza la necesidad de respetar los derechos digitales, la privacidad y los límites en tratamientos que afecten a personas trabajadoras o candidatas. En recursos humanos, además, conviene recordar que el tratamiento de datos debe estar vinculado a finalidades legítimas, concretas y proporcionadas.
Bases de legitimación: cuidado con el consentimiento
En este ámbito, el consentimiento no suele ser la base más adecuada. En procesos de selección o en relaciones laborales existe un claro desequilibrio entre la empresa y la persona afectada. Por eso, muchas veces la base jurídica más coherente será otra: aplicación de medidas precontractuales a petición del candidato, ejecución de la relación laboral, cumplimiento de obligaciones legales o, en determinados casos, interés legítimo correctamente ponderado.
La IA no crea una base jurídica nueva. Solo cambia la forma en que se procesa la información. Por tanto, antes de usar una herramienta generativa, hay que preguntarse no solo si el tratamiento tiene base legal, sino también si esa forma concreta de tratar los datos es necesaria y proporcionada.
Decisiones automatizadas: el punto más delicado
Aquí está uno de los mayores riesgos. Si una persona es descartada o evaluada negativamente por una decisión basada únicamente en tratamiento automatizado, pueden entrar en juego límites reforzados del RGPD. No basta con decir que “la máquina ayuda”. Si el sistema realmente condiciona de forma decisiva el resultado, la empresa debe extremar garantías.
La supervisión humana no puede ser decorativa. Debe ser real, crítica y con capacidad efectiva para corregir, revisar o apartarse del resultado generado por la herramienta. Si la intervención humana consiste solo en confirmar lo que la IA propone, el riesgo sigue ahí.
¿Es obligatoria una evaluación de impacto?
En muchos casos, sí será al menos muy recomendable, y en bastantes supuestos puede resultar necesaria. Cuando se usan nuevas tecnologías para perfilar, clasificar o evaluar personas en contextos laborales o prelaborales, es fácil que exista un alto riesgo para los derechos y libertades de las personas afectadas.
La evaluación de impacto en protección de datos debe analizar, entre otras cosas:
- la finalidad del sistema;
- la necesidad y proporcionalidad del tratamiento;
- la calidad y pertinencia de los datos;
- el riesgo de sesgo o discriminación;
- la transparencia hacia las personas afectadas;
- la intervención humana real;
- las medidas de seguridad;
- los plazos de conservación;
- el rol del proveedor tecnológico.
No debe verse como un trámite documental, sino como una herramienta para decidir si el uso concreto de la IA es jurídicamente defendible.
Proporcionalidad: la gran clave
No todo uso de IA en recursos humanos es igual. No es lo mismo utilizar una herramienta para redactar una oferta de empleo que usarla para priorizar candidatos, sugerir descartes o puntuar entrevistas. Cuanto mayor sea el impacto sobre la persona, mayor debe ser la cautela.
Aplicar proporcionalidad implica preguntarse:
- ¿es realmente necesario usar IA para esta función?;
- ¿se podrían alcanzar los mismos fines con menos riesgo?;
- ¿se están cargando más datos de los necesarios?;
- ¿la herramienta es comprensible y auditable?;
- ¿hay supervisión humana real?;
- ¿se ha informado adecuadamente a las personas afectadas?;
- ¿se revisan posibles sesgos y errores?;
Seguridad y proveedores
Si la herramienta pertenece a un tercero, también hay que revisar con cuidado el papel del proveedor. No basta con contratar una solución atractiva. Es necesario analizar si actúa como encargado del tratamiento, qué hace con los datos, si los reutiliza, si entrena sus sistemas con ellos, dónde se alojan, qué subproveedores intervienen y qué medidas de seguridad ofrece.
En recursos humanos esto es especialmente importante porque los currículums y evaluaciones pueden contener datos muy detallados sobre la vida profesional, académica e incluso personal de los candidatos o trabajadores.
Conclusión
La IA generativa puede ser una herramienta útil en recursos humanos, pero su uso en filtrado de currículums o evaluación de personas exige mucha prudencia. En este terreno, automatizar mal puede generar problemas de privacidad, decisiones injustas, sesgos difíciles de detectar y riesgos importantes de incumplimiento.
La pregunta no es solo si la IA ahorra tiempo. La pregunta real es si su uso respeta derechos, reduce riesgos y puede justificarse con transparencia, proporcionalidad y control humano efectivo. En recursos humanos, la tecnología no puede sustituir el juicio responsable ni vaciar de garantías un proceso que afecta directamente a las personas.
Límite de esta información: este contenido es divulgativo y no sustituye una revisión jurídica específica del caso concreto, especialmente si se usan sistemas de scoring, perfilado, biometría, análisis de vídeo, monitorización o herramientas que influyan de forma relevante en decisiones laborales.
#sipylopd #SIPY #IA #inteligenciaartificial #RRHH #RGPD #LOPDGDD #protecciondedatos #compliance #recursoshumanos #privacidad






