Del derecho al olvido al derecho a la invisibilidad algorítmica

El derecho al olvido se convirtió en un hito legal en 2014, cuando el Tribunal de Justicia de la Unión Europea obligó a Google a eliminar enlaces de resultados de búsqueda que afectaban a la reputación de un ciudadano. Desde entonces, este derecho ha sido reconocido en el RGPD y desarrollado en la LOPDGDD como una herramienta clave para proteger la privacidad digital.

Sin embargo, en 2025 nos encontramos en un escenario mucho más complejo: los algoritmos y la inteligencia artificial generativa no solo indexan información, sino que crean, predicen y difunden datos que pueden afectar directamente a nuestra identidad digital. Esto exige una evolución del derecho al olvido hacia lo que podríamos llamar “derecho a la invisibilidad algorítmica”.

1. Derecho al olvido: logros y límites

El derecho al olvido ha permitido que miles de ciudadanos soliciten la eliminación de enlaces que afectan a su reputación, especialmente en buscadores.
Pero sus limitaciones son evidentes:

  • Se aplica principalmente a motores de búsqueda.
  • No elimina la información original, solo el enlace.
  • No actúa frente a perfiles creados automáticamente por sistemas de IA.

2. La nueva amenaza: la memoria infinita de los algoritmos

Hoy los datos ya no solo están en bases públicas. Están en modelos de IA entrenados con información de internet, que:

  • Generan perfiles predictivos de personas sin que estas lo sepan.
  • Asocian datos indirectos para inferir ideología, orientación sexual o salud.
  • Pueden inventar información (“alucinaciones”) que circula como si fuera cierta.

Esto supone que nuestra huella digital no es solo lo que publicamos, sino también lo que los algoritmos dicen de nosotros.

3. Hacia un derecho a la invisibilidad algorítmica

Este nuevo derecho debería permitir a los ciudadanos:

  • Oponerse a la creación de perfiles automatizados sin consentimiento.
  • Solicitar la supresión de inferencias algorítmicas que afecten a su reputación.
  • Controlar el uso de sus datos en el entrenamiento de IA.
  • Exigir transparencia sobre cómo se construyen los modelos que los afectan.

4. Retos legales y técnicos

Implementar este derecho no será fácil:

  • Los modelos de IA son opacos y no siempre se puede identificar qué datos concretos los alimentan.
  • Eliminar información de un modelo entrenado no es tan simple como borrar un archivo.
  • Existe un choque entre la libertad de innovación tecnológica y la protección de derechos fundamentales.

5. Ejemplos reales de riesgo

  • Un periodista encuentra que un modelo de IA inventa declaraciones falsas atribuidas a él.
  • Una candidata a un empleo es descartada porque un algoritmo infiere que cambiará pronto de residencia.
  • Un ciudadano descubre que un chatbot difunde información personal descontextualizada.

En todos estos casos, el derecho al olvido se queda corto.

6. El papel de la AEPD y la AESIA

España podría liderar este debate. La AEPD ya gestiona solicitudes de derecho al olvido, y la AESIA tiene competencias en supervisión de sistemas de IA. Una colaboración estrecha podría sentar las bases de este nuevo derecho emergente.

7. Conclusión

El derecho al olvido fue la primera gran victoria en la batalla por la privacidad digital. Pero en la era de la IA necesitamos un paso más: garantizar que los algoritmos no creen una versión paralela y eterna de nosotros sin nuestro consentimiento.

La próxima frontera será el derecho a la invisibilidad algorítmica: el poder de decidir no solo qué datos publicamos, sino también qué perfiles y predicciones pueden (o no) construirse sobre nosotros.

Facebook
Twitter
LinkedIn
Email
WhatsApp
Telegram
Skype
Print