Puntos Clave
• Las herramientas IA del Reino Unido presentan un 9% de error crítico, afectando decisiones sobre asilo.
• Más de 90.000 expedientes de asilo en trámite podrían ahorrar 44 años de trabajo con IA, pero persiste el riesgo.
• Expertos alertan que errores en resúmenes automáticos pueden derivar en rechazos injustos y consecuencias graves.
El uso de herramientas modernas de inteligencia artificial (IA) en el proceso de asilo está generando un debate importante en el Reino Unido 🇬🇧. La Oficina de Interior del Reino Unido ha puesto a prueba recientemente dos nuevos sistemas digitales, conocidos como modelos de lenguaje grande, para intentar resolver el gran retraso en los casos de asilo. Sin embargo, estos experimentos tecnológicos han encontrado críticas fuertes debido a errores y preocupaciones relacionadas con la vida de las personas solicitantes de asilo.
¿Qué son las nuevas herramientas de asilo?

La Oficina de Interior del Reino Unido diseñó dos herramientas digitales principales para ayudar en la gestión de casos de asilo. La primera es el “Resumen de Casos de Asilo” (ACS, por sus siglas en inglés), que recoge y resume información de las entrevistas de asilo. La segunda se llama “Búsqueda de Políticas de Asilo” (APS). Esta herramienta busca y ofrece información sobre las políticas de asilo de distintos países.
Ambos programas fueron presentados oficialmente como una forma innovadora de ahorrar tiempo y reducir el trabajo manual en la revisión de expedientes de personas solicitantes de asilo. Según Dame Angela Eagle, ministra de Seguridad de Fronteras y Asilo, estas tecnologías pueden llegar a reducir casi la mitad del tiempo requerido para buscar información sobre políticas de asilo y alrededor de un tercio del tiempo necesario para resumir cada caso. Las evaluaciones iniciales de la Oficina de Interior muestran que la herramienta de resumen de casos ahorra en promedio 23 minutos por expediente, mientras que la de búsqueda de políticas disminuye el tiempo en unos 37 minutos por caso.
Esta reducción de minutos por expediente tiene una consecuencia muy relevante considerando la magnitud del problema. Hasta diciembre de 2024, existían más de 90.000 casos de asilo pendientes en el sistema británico. Las autoridades calculan que usando estas herramientas podrían ahorrar el equivalente a 44 años de horas de trabajo, lo cual representa una ganancia significativa en la gestión administrativa.
Críticas a la precisión y seguridad
Aunque la Oficina de Interior del Reino Unido presentó estos cambios como un avance positivo, quienes han revisado de cerca los resultados identifican fallas relevantes. Durante el periodo de evaluación de la herramienta de Resumen de Casos de Asilo, se descubrió que aproximadamente una de cada diez veces (alrededor del 9%) la información producida fue incorrecta o incompleta, y en algunos casos ni siquiera se pudo usar. Estos resultados muestran que no es solo cuestión de pequeños errores, sino de riesgos importantes, ya que parte de los resúmenes fueron eliminados del estudio justamente por su mala calidad.
La confianza en la herramienta también es baja entre quienes la utilizan. Menos de la mitad de los empleados de casos dijeron que el resumen proporcionado por la IA era correcto. Alrededor del 24% de quienes probaron la herramienta admitieron no sentirse completamente seguros de la información que recibieron. Además, una preocupación clave es que la herramienta no siempre hace referencia directa al expediente de entrevista del solicitante, lo que puede dificultar la comprobación de los datos o la aclaración de detalles, una función básica en procedimientos tan delicados.
Consecuencias Potenciales: ¿Cómo afecta esto a las personas solicitantes?
Los errores en los resúmenes automáticos no son un tema menor. Como explica Martha Dark, fundadora de la organización Foxglove, las decisiones de asilo son de las más serias que puede tomar un país, porque una mala decisión podría poner en peligro la vida de alguien. Cuando un error en la información lleva a rechazar la solicitud de una persona que realmente necesita protección, las consecuencias pueden ser trágicas.
El problema principal no solo es la precisión, sino también cómo los sistemas automáticos pueden “alucinar”, es decir, fabricar datos. Estos errores pueden pasar desapercibidos hasta que ya es demasiado tarde para corregirlos. Los defensores de derechos digitales advierten que los modelos de IA tienden a ofrecer respuestas o datos que parecen reales pero que, en realidad, no existen en los documentos originales. Esto es muy peligroso en contextos críticos como el asilo.
Otro factor de riesgo que señalan los expertos es el sesgo algorítmico. Las herramientas automáticas toman como base grandes cantidades de datos históricos para aprender, y si esos datos contienen prejuicios o discriminación, la herramienta puede repetir y amplificar esos problemas. Ya en 2020 la Oficina de Interior del Reino Unido tuvo que abandonar una herramienta que evaluaba riesgos de solicitantes según su país de origen porque se descubrió que discriminaba sin justificación a ciertas nacionalidades.
Además, hay un tema humano. Caterina Rodelli, de la organización Access Now, enfatiza que reducir la historia de una persona refugiada a unas líneas de resumen es una muestra de deshumanización. Muchas personas que piden asilo han pasado por situaciones traumáticas, y cuando el sistema las trata de forma tan mecánica, el proceso resulta aún más duro para ellas. Rodelli explica que “las personas tienen que pasar por mucho trauma con estos procedimientos… y luego simplemente lo reducen a un resumen. Es una señal de cómo el sistema está perdiendo humanidad”.
Respuestas y planes futuros del gobierno
Pese a las advertencias y problemas encontrados, la Oficina de Interior del Reino Unido ha decidido seguir adelante con la implementación de estas herramientas. Las autoridades aseguran que la idea no es dejar la decisión final a los sistemas automáticos. El proceso mantiene la intervención humana y las herramientas sirven solo como ayuda para recopilar y ordenar información. Según el gobierno, la filosofía es mantener a “la persona al mando de la decisión”, en inglés lo llaman un enfoque de “humano en el ciclo”. De este modo, el/la empleado que revisa el caso tiene el último voto y no puede confiar únicamente en lo que dice el sistema.
Las declaraciones oficiales repiten que el objetivo es simplificar y acelerar el trabajo “sin perder la calidad de las decisiones humanas”. Sin embargo, los críticos recuerdan que el problema surge precisamente cuando el dato proporcionado por el resumen es incorrecto. Si quien toma la decisión se apoya en un error generado por la herramienta, toda la finalidad del control humano se debilita.
El Consejo de Refugiados del Reino Unido advierte que otras veces en las que se intentó acelerar los procesos, el resultado fue un mayor número de decisiones incorrectas y, en consecuencia, más apelaciones y un sistema judicial colapsado. Esto muestra que si no se tiene cuidado, el uso de nuevas tecnologías podría agravar, en vez de mejorar, los problemas ya existentes.
Polémica alrededor del sistema automatizado
El debate está lejos de terminar. Quienes apoyan la adopción de IA en la administración pública destacan la ventaja de ahorrar tiempo y recursos. Consideran que, ante un retraso tan grande en los casos de asilo y la presión sobre los trabajadores del sistema, cualquier ayuda tecnológica es positiva. Según ellos, el sistema puede ser más eficiente y, si los resúmenes son revisados por personas, el riesgo de errores graves debería ser bajo.
Pero los datos de las primeras pruebas no son alentadores. Si el 9% de los resúmenes tiene fallos graves y una parte significativa de los empleados no se siente segura usando lo que produce la herramienta, la fiabilidad debe ser el foco principal antes de ampliar su uso. Como señala Martha Dark, “las consecuencias potencialmente mortales de estos errores” obligan a tratar el tema con máxima seriedad.
El temor principal de las organizaciones de derechos humanos y grupos de apoyo a personas refugiadas es que el proceso se haga tan mecánico que olvide la condición personal de cada solicitante. El asilo no es solo un tema de datos, sino de comprender realidades humanas a menudo muy complejas.
¿Es posible mejorar el uso de la IA en el asilo?
La experiencia muestra que el uso de inteligencia artificial en procesos públicos es todavía un camino con muchos riesgos. La transparencia, supervisión humana constante y la vigilancia de sesgos o errores son esenciales si se va a continuar experimentando con estas herramientas. También se necesita asegurar que cada herramienta aporte referencias claras a los documentos originales y no elimine el contexto personal de cada historia.
La Oficina de Interior del Reino Unido, en su página oficial, sostiene que cualquier uso de IA en procedimientos de asilo seguirá bajo estrictos controles y revisiones continuas. Habrá seguimiento sobre errores y un compromiso a no dejar nunca las decisiones clave totalmente en manos de una computadora. Si deseas conocer más sobre el enfoque oficial, puedes consultar la sección de políticas de asilo en el sitio web del gobierno británico.
VisaVerge.com informa que las discusiones actuales alrededor del tema han llevado a que muchas organizaciones demanden más estudios independientes y una explicación clara sobre cómo se está usando la inteligencia artificial en la atención a personas solicitantes de asilo. Además, hacen énfasis en la importancia de que la Oficina de Interior del Reino Unido escuche tanto a expertos técnicos como a defensores de derechos humanos para encontrar el equilibrio entre eficiencia y justicia.
Impactos a corto y largo plazo para las personas y el sistema
A corto plazo, las principales preocupaciones son la seguridad y el bienestar de quienes confían su futuro a este proceso. Un error, un dato mal resumido o una interpretación equivocada pueden suponer la diferencia entre la protección y el rechazo. Esto afecta no solo a las personas, sino también a organizaciones sociales y a los tribunales que después deben gestionar los recursos y apelaciones provocados por decisiones injustas.
A largo plazo, el riesgo es introducir desconfianza en todo el sistema de asilo, lo que sería dañino para quienes más necesitan protección. Si las personas perciben que sus historias no se leen con cuidado y que sus vidas dependen de un algoritmo, la percepción de justicia y humanidad desaparece.
También hay un posible efecto sobre el personal de la Oficina de Interior: pueden sentir que se les exige cada vez más hacer su trabajo rápido y con menos tiempo para revisar cada expediente, aumentando el estrés y el margen de error.
Retos y próximos pasos
El desafío para el gobierno y la sociedad es encontrar el equilibrio adecuado. Mejorar la eficiencia administrativa es necesario, especialmente con cantidades tan grandes de expedientes atrasados. Sin embargo, esto no puede hacerse a costa de la justicia, la seguridad y el respeto por cada persona que solicita asilo.
Las lecciones de este primer experimento deben llevar a mejorar la supervisión, a formar al personal adecuadamente y a involucrar a especialistas en derechos humanos en cada nueva fase. Es importante seguir estudiando tanto los fallos como los aciertos, y corregir sin miedo los errores antes de ampliar el uso de los sistemas automáticos.
Como observa el Resumen de Casos de Asilo, cada historia es única y debe ser tratada con el cuidado que merece. Y mientras la Búsqueda de Políticas de Asilo prometa ayudar a los trabajadores a ahorrar tiempo, el verdadero objetivo debe ser siempre garantizar que ninguna decisión de asilo, que puede significar la vida o la muerte de una persona, dependa sólo de la rapidez o la eficiencia de una máquina.
En conclusión, la modernización puede brindar avances, pero siempre debe garantizar el respeto por la dignidad humana, la revisión responsable y la decisión informada por parte de personas capacitadas. La Oficina de Interior del Reino Unido tiene ahora la difícil pero necesaria tarea de demostrar que puede usar la tecnología de manera coincidente con estos valores.
Aprende Hoy
Resumen de Casos de Asilo → Herramienta digital que sintetiza entrevistas de solicitantes de asilo para agilizar el trabajo de los empleados revisores.
Búsqueda de Políticas de Asilo → Sistema basado en IA que localiza y resume información relevante sobre normativas de asilo de diferentes países.
Sesgo algorítmico → Tendencia de los sistemas automáticos a repetir o amplificar prejuicios presentes en los datos de entrenamiento.
Alucinación de IA → Situación en la que la inteligencia artificial produce datos inventados o incorrectos no presentes en los documentos originales.
Humano en el ciclo → Método que exige que toda decisión final pase por una revisión personal y no solo automática.
Este Artículo en Resumen
El Reino Unido utiliza nuevas herramientas de IA para agilizar decisiones de asilo, pero enfrenta duras críticas por errores críticos. Aunque prometen eficiencia y reducción de demoras, los problemas de precisión en los resúmenes ponen en peligro a personas vulnerables. Expertos insisten en supervisión humana y máximo rigor en la revisión.
— Por VisaVerge.com
Leer más:
• Pescadores solicitantes de asilo refuerzan redes de contrabando en Reino Unido
• Starmer plantea enviar solicitantes de asilo rechazados a centros de retorno
• Solicitudes de asilo en Reino Unido se disparan por cruces en botes pequeños
• Ciudad de Leicester concentra más solicitantes de asilo que Midlands del Este
• Fábrica de Coolock cancela plan para solicitantes de asilo