Puntos Clave
- Privacy International presentó la queja al ICO el 18 de agosto de 2025 por IPIC y EMRT.
- PI denuncia ausencia de DPIAs, poca supervisión humana y falta de información a migrantes sobre decisiones automatizadas.
- El ICO puede suspender temporalmente el tratamiento de IPIC y EMRT según UK GDPR y Data Protection Act 2018.
El regulador de datos del Reino Unido ha sido instado a investigar el uso de algoritmos de inmigración secretos por parte del Home Office, después de que Privacy International presentara una denuncia formal que plantea riesgos legales y humanos significativos. El 18 de agosto de 2025, Privacy International (PI) remitió una queja al Information Commissioner’s Office (ICO) contra dos herramientas automatizadas utilizadas en la labor migratoria: la Identify and Prioritise Immigration Cases (IPIC)
y la herramienta de revisión Electronic Monitoring Review Tool (EMRT)
. La denuncia pide que el ICO valore si el procesamiento contraviene el UK GDPR
y la Data Protection Act 2018, y que ordene la paralización de actividades de tratamiento si procede.

Desde el inicio la queja subraya que estas herramientas no se usan con la transparencia ni las salvaguardas necesarias. PI sostiene que las decisiones de detención, retirada y control electrónico de migrantes se apoyan en resultados producidos por los sistemas automatizados y que no existe suficiente revisión humana ni información para las personas afectadas sobre cómo impugnar esas decisiones.
La reclamación incluye evidencias aportadas por el Public Law Project, Duncan Lewis Solicitors y Wilson Solicitors, y solicita al ICO que emita un notice de cumplimiento o emprenda una investigación formal.
Investigación y posibles consecuencias legales
El escenario inmediato es claro: el ICO evaluará la denuncia, pedirá datos al Home Office y podrá emitir un requerimiento para detener el procesamiento si identifica incumplimientos.
- Fecha clave: 18 de agosto de 2025 — fecha de presentación de la queja.
- Resultados posibles:
- Emisión de un notice de cumplimiento.
- Investigación formal por parte del ICO.
- Orden de suspensión temporal de las herramientas IPIC y EMRT.
La IPIC se utiliza para clasificar y priorizar expedientes, influyendo en quién es citado para detención o proceso administrativo. La EMRT se vincula al uso de monitorización electrónica, como dispositivos de localización.
Si el ICO determina que el Home Office no realizó los necesarios Data Protection Impact Assessments (DPIAs) o que procesó datos en volumen injustificado, la autoridad podría imponer medidas correctoras en virtud de la legislación vigente.
Para información oficial del regulador sobre estos procedimientos y cómo presentar reclamaciones consulte la web del ICO: https://ico.org.uk.
La noticia también tiene implicaciones procesales: una orden del ICO podría crear jurisprudencia importante sobre el empleo de sistemas automatizados en la administración pública. Los precedentes recientes ya pesan sobre el Home Office:
- En 2020 se retiró un algoritmo de clasificación de visados tras una demanda por sesgo racial.
- En 2023 hubo acuerdos para rediseñar otras herramientas por sesgos inconscientes.
Estas sentencias y acuerdos configuran el telón de fondo de la nueva queja.
Impacto en migrantes y en la política pública
Para las personas afectadas, el problema es concreto y urgente. Cuando una decisión que altera la libertad o el estatus migratorio se basa en algoritmos opacos, los afectados pueden quedar sin la información necesaria para impugnar la decisión o pedir una revisión humana adecuada.
Las organizaciones legales consultadas por PI advierten sobre “resultados que cambian vidas” fundados en decisiones automatizadas potencialmente erróneas o sesgadas. Además, la falta de notificación a los migrantes sobre el uso de estas herramientas puede vulnerar sus derechos bajo UK GDPR
.
En el plano político, la denuncia llega en un momento de reformas migratorias amplias en 2025, con cambios en requisitos de habilidad y salario para visados y el cierre de rutas para trabajadores de cuidado social. Ese contexto convierte la polémica en un tema sensible: la administración pública impulsa el uso de tecnología para controlar flujos migratorios, pero la falta de controles podría socavar la legitimidad de esas políticas y exponer al gobierno a bloqueos judiciales y retrasos operativos.
La denuncia también pone en cuestión proyectos internos más recientes: el Home Office ha probado modelos de lenguaje tipo ChatGPT para resumir expedientes de asilo, y una evaluación interna detectó un 9% de errores en los resúmenes. Ese dato refuerza la preocupación sobre la fiabilidad de las herramientas automatizadas en procedimientos que ya son complejos y de alto impacto humano.
Reacciones oficiales y periodísticas han comenzado a aflorar. Los medios destacan que una decisión adversa podría detener deportaciones si los procesos se basan en datos procesados ilegalmente. El Home Office no ha ofrecido aún una respuesta pública detallada a la queja de agosto; en el pasado ha defendido el uso de tecnología por motivos de eficiencia operativa, pero también ha sufrido derrotas legales por falta de transparencia y salvaguardas.
Perspectivas técnicas y legales
Los argumentos de PI se centran en tres áreas técnicas y legales principales:
- Opacidad de los modelos — falta de explicabilidad sobre cómo se llegan a las decisiones.
- Ausencia de DPIAs — inexistencia o insuficiencia de evaluaciones de impacto sobre la protección de datos.
- Insuficiente supervisión humana — revisión humana inadecuada frente a resultados automatizados.
Legalmente, si el ICO concluye que existe una vulneración del UK GDPR
o de la Data Protection Act 2018, podrá dictar medidas que incluyan la paralización parcial o total de los procesos automatizados y la imposición de sanciones administrativas.
Los expertos en derecho administrativo citados por PI reclaman además el desarrollo de mecanismos explícitos para que las personas puedan:
- Impugnar decisiones automáticas.
- Acceder a explicaciones claras sobre cómo se usan sus datos.
- Obtener revisiones humanas efectivas.
Sin esas garantías, los sistemas corren el riesgo de reproducir o amplificar sesgos presentes en los datos de entrenamiento o en las reglas internas.
Qué pueden hacer los interesados
- Si trabaja en defensa legal o en organizaciones que apoyan a migrantes:
- Revise expedientes potencialmente afectados.
- Recopile evidencia documental sobre decisiones automatizadas.
- Si es una persona sujeta a decisiones migratorias y sospecha influencia de herramientas automatizadas:
- Solicite información por escrito sobre la base de la decisión.
- Pida revisión humana cuando proceda.
- Para orientación sobre derechos de protección de datos y cómo presentar reclamaciones, consulte al ICO: https://ico.org.uk/global/contact-us/.
Según análisis de VisaVerge.com, la queja representa una prueba decisiva sobre cómo la ley de protección de datos se aplica a la automatización en inmigración y puede marcar reglas claras para el futuro uso de algoritmos en el sector público. Las organizaciones de la sociedad civil anticipan una intensificación de la vigilancia y de los desafíos legales si el Home Office no mejora la transparencia y las garantías.
Expectativas y cierre
La investigación del ICO y cualquier acción que se derive se esperan en los próximos meses. Si el regulador emite una orden de cumplimiento, el impacto operativo y humano será inmediato: se podrían suspender decisiones basadas en estas herramientas y abrir recursos administrativos y judiciales que afecten a miles de casos.
Mientras tanto, la disputa coloca en primer plano una pregunta amplia: ¿hasta qué punto la administración pública puede confiar en sistemas automatizados para decisiones que afectan la vida y la libertad de las personas?
Aprende Hoy
IPIC → Identify and Prioritise Immigration Cases: herramienta para clasificar y priorizar expedientes para medidas de control migratorio.
EMRT → Electronic Monitoring Review Tool: sistema que influye en decisiones sobre colocación de dispositivos de localización GPS.
DPIA → Evaluación de impacto sobre la protección de datos necesaria antes de iniciar tratamientos de alto riesgo.
ICO → Information Commissioner’s Office: autoridad reguladora británica encargada de proteger datos personales y hacer cumplir GDPR.
UK GDPR → Versión británica del Reglamento General de Protección de Datos que regula el tratamiento legítimo de datos personales.
Este Artículo en Resumen
El 18 de agosto de 2025 Privacy International pidió al ICO investigar las herramientas IPIC y EMRT del Home Office. La denuncia alega ausencia de DPIAs, escasa revisión humana y falta de transparencia en decisiones sobre detención, expulsión y monitorización electrónica. Una orden del ICO podría suspender su uso mientras se corrijan incumplimientos.
— Por VisaVerge.com