El derecho al olvido se convirtió en un hito legal en
2014, cuando el Tribunal de Justicia de la Unión Europea obligó a Google a
eliminar enlaces de resultados de búsqueda que afectaban a la reputación de un
ciudadano. Desde entonces, este derecho ha sido reconocido en el RGPD y
desarrollado en la LOPDGDD como una herramienta clave para proteger la
privacidad digital.
Sin embargo, en 2025 nos encontramos en un escenario mucho
más complejo: los algoritmos y la inteligencia artificial generativa
no solo indexan información, sino que crean, predicen y difunden datos que
pueden afectar directamente a nuestra identidad digital. Esto exige una
evolución del derecho al olvido hacia lo que podríamos llamar “derecho a la
invisibilidad algorítmica”.
1. Derecho al olvido: logros y límites
El derecho al olvido ha permitido que miles de ciudadanos
soliciten la eliminación de enlaces que afectan a su reputación, especialmente
en buscadores.
Pero sus limitaciones son evidentes:
- Se
aplica principalmente a motores de búsqueda.
- No
elimina la información original, solo el enlace.
- No
actúa frente a perfiles creados automáticamente por sistemas de IA.
2. La nueva amenaza: la memoria infinita de los algoritmos
Hoy los datos ya no solo están en bases públicas. Están en
modelos de IA entrenados con información de internet, que:
- Generan
perfiles predictivos de personas sin que estas lo sepan.
- Asocian
datos indirectos para inferir ideología, orientación sexual o salud.
- Pueden
inventar información (“alucinaciones”) que circula como si fuera
cierta.
Esto supone que nuestra huella digital no es solo lo que
publicamos, sino también lo que los algoritmos dicen de nosotros.
3. Hacia un derecho a la invisibilidad algorítmica
Este nuevo derecho debería permitir a los ciudadanos:
- Oponerse
a la creación de perfiles automatizados sin consentimiento.
- Solicitar
la supresión de inferencias algorítmicas que afecten a su reputación.
- Controlar
el uso de sus datos en el entrenamiento de IA.
- Exigir
transparencia sobre cómo se construyen los modelos que los afectan.
4. Retos legales y técnicos
Implementar este derecho no será fácil:
- Los
modelos de IA son opacos y no siempre se puede identificar qué datos
concretos los alimentan.
- Eliminar
información de un modelo entrenado no es tan simple como borrar un
archivo.
- Existe
un choque entre la libertad de innovación tecnológica y la protección de
derechos fundamentales.
5. Ejemplos reales de riesgo
- Un
periodista encuentra que un modelo de IA inventa declaraciones falsas
atribuidas a él.
- Una
candidata a un empleo es descartada porque un algoritmo infiere que
cambiará pronto de residencia.
- Un
ciudadano descubre que un chatbot difunde información personal
descontextualizada.
En todos estos casos, el derecho al olvido se queda corto.
6. El papel de la AEPD y la AESIA
España podría liderar este debate. La AEPD ya gestiona
solicitudes de derecho al olvido, y la AESIA tiene competencias en supervisión
de sistemas de IA. Una colaboración estrecha podría sentar las bases de
este nuevo derecho emergente.
7. Conclusión
El derecho al olvido fue la primera gran victoria en la
batalla por la privacidad digital. Pero en la era de la IA necesitamos un paso
más: garantizar que los algoritmos no creen una versión paralela y eterna de
nosotros sin nuestro consentimiento.
La próxima frontera será el derecho a la invisibilidad
algorítmica: el poder de decidir no solo qué datos publicamos, sino también
qué perfiles y predicciones pueden (o no) construirse sobre nosotros.






