Puntos Clave
- DHS informó 105 casos activos de IA en abril de 2025, frente a 39 en 2023.
- CBP registra 59 aplicaciones; ICE tiene 23 y USCIS 18 casos de IA.
- ICE planea escaneo retiniano, reconocimiento facial, ImmigrationOS, modelos de riesgo y paneles de cumplimiento en 2025.
En una expansión que cambia la práctica de la aplicación migratoria, el Departamento de Seguridad Nacional ha integrado nuevas tecnologías de inteligencia artificial en operaciones que afectan solicitudes, vigilancia y expulsiones desde principios de 2025. Según el Inventario de uso de IA del DHS, publicado en abril de 2025, existen 105 casos activos de IA en agencias migratorias, con 59 aplicaciones en Customs and Border Protection, 23 en Immigración y Control de Aduanas (ICE) y 18 en U.S. Citizenship and Immigration Services. Estas cifras reflejan un aumento marcado desde las 39 aplicaciones públicas reportadas en 2023 y subrayan el papel creciente de herramientas como el reconocimiento facial, modelos de puntuación de riesgo y sistemas de análisis automatizado.

ICE ha abierto nuevas líneas tecnológicas. Un sistema conocido como ImmigrationOS usa IA para cruzar registros migratorios, antecedentes penales y posibles relaciones con organizaciones criminales, con objetivos declarados de acelerar la gestión de casos y el seguimiento de salidas voluntarias en tiempo casi real. El uso previsto de tecnologías biométricas llega a un nuevo nivel: ICE está planeando comprar tecnología de escaneo retiniano respaldada por IA para identificar personas sujetas a deportación, un salto importante en la recolección de datos biométricos.
Desarrollos clave y alcance
Los usos reportados incluyen:
- Detección de fraude
- Vigilancia fronteriza
- Evaluación de asilo
- Traducción asistida por IA
- Puntuaciones de cumplimiento, por ejemplo el llamado “Hurricane Score” que busca predecir la probabilidad de que una persona no ciudadana cumpla con condiciones de liberación.
DHS también publicó un Generative AI Public Sector Playbook
con pautas para desarrollar y desplegar IA en agencias federales, prometiendo eficiencia, privacidad y responsabilidad, pero sin disipar todas las dudas sobre transparencia y sesgos.
Organizaciones de derechos civiles, académicos y abogados han advertido que estas herramientas pueden producir identificaciones erróneas, sesgos culturales y lingüísticos, y tomar decisiones opacas que afectan profundamente procesos legales como solicitudes de asilo. Expertos como Faiza Patel del Brennan Center y Petra Molnar del Refugee Law Lab han pedido mayor supervisión y mecanismos claros de apelación cuando un algoritmo influye en una decisión humana.
El ritmo de adopción tiene raíces históricas: la ampliación del uso de vigilancia y análisis de datos se aceleró durante la administración de President Trump, con mayor integración de redes sociales y asociaciones con empresas tecnológicas. Desde 2022, DHS aumentó la divulgación pública de casos de IA, lo que permitió la elaboración del Inventario de uso de IA del DHS y el análisis comparativo entre agencias.
Efectos prácticos y riesgos
En la práctica, la inclusión de IA puede:
- Acortar tiempos de procesamiento de solicitudes.
- Mejorar la identificación de documentación fraudulenta.
- Acelerar acciones de deportación al aumentar la velocidad de procesamiento y vigilancia en tiempo real.
Las etapas típicas descritas por el departamento incluyen:
- Recolección de datos biométricos y de redes sociales.
- Análisis por algoritmos.
- Detección de banderas que requieren revisión humana.
- Decisiones asistidas por IA.
- Acciones de cumplimiento coordinadas por ICE.
La opacidad es una preocupación importante. Un solicitante puede recibir una negativa sin saber que un modelo de IA marcó su expediente por riesgo. Eso complica el derecho a impugnar decisiones y genera inquietud entre comunidades que ya temen contactar servicios públicos.
Grupos de defensa recomiendan:
- Educación comunitaria sobre derechos y procesos.
- Exigir transparencia técnica sobre cómo funcionan los algoritmos.
Según análisis de VisaVerge.com, el aumento del uso de IA en agencias migratorias es multidimensional y podría cambiar prioridades operativas, destinando más recursos a identificación automática y menos a investigaciones humanas prolongadas. Esta dinámica plantea preguntas sobre proporcionalidad y supervisión judicial.
Implicaciones legales a considerar:
- Posible necesidad de órdenes judiciales más precisas para recolectar ciertas formas de biometría.
- Revisión de prácticas de retención de datos.
- Riesgo de errores de interpretación por integración de traducción y generación de texto por IA que afecten investigaciones o audiencias.
Riesgo crítico: la velocidad y automatización pueden incrementar medidas de cumplimiento con menos oportunidad de revisión humana efectiva, afectando derechos individuales.
Reacciones institucionales y comunitarias
DHS y ICE defienden que la IA mejora la seguridad nacional y la eficiencia operativa, apuntando a reducir errores humanos y tiempos de espera. También promueven controles internos y revisiones humanas antes de decisiones finales.
Sin embargo, defensores civiles señalan que dichos controles no eliminan el riesgo de sesgo incorporado en modelos entrenados con datos históricos que reflejan desigualdades.
Impactos concretos para profesionales y comunidades:
- Abogados de inmigración deben:
- Preparar documentación más precisa.
- Estar listos para responder rápidamente a banderas automatizadas.
- Auditar y documentar comunicaciones.
- Solicitar acceso a explicaciones técnicas cuando sea posible.
- Para las comunidades afectadas:
- La expansión de vigilancia por reconocimiento facial y el posible escaneo retiniano aumentan la sensación de vigilancia.
- Esto puede reducir la búsqueda de atención médica, la inscripción escolar o la cooperación con agencias públicas por miedo a consecuencias migratorias.
Qué fuentes oficiales consultar y próximos pasos
La referencia pública clave es el Inventario de uso de IA del DHS; la página oficial del DHS ofrece la biblioteca de publicaciones donde se detalla cada uso reportado: https://www.dhs.gov/publication/dhs-ai-use-case-inventory.
Recomendaciones prácticas:
- Contactar a U.S. Citizenship and Immigration Services y a oficinas locales de asistencia legal para información sobre procesos migratorios.
- Monitorear actualizaciones de ICE relacionadas con tecnologías biométricas.
- Solicitar auditorías externas y explicaciones técnicas cuando sea posible para proteger derechos civiles.
En el corto plazo, es probable que veamos:
- Mayor adopción de herramientas biométricas y modelos predictivos.
- Un debate público sobre transparencia, supervisión independiente y garantías procesales.
- Activistas y abogados solicitando mayor acceso a auditorías externas y explicaciones técnicas.
Las autoridades han indicado su compromiso con normas internas y guías públicas, pero el equilibrio entre seguridad y derechos individuales seguirá siendo motivo de disputa. Mientras tanto, comunidades, defensores y profesionales del derecho deben prepararse para un entorno donde las máquinas influyen cada vez más en decisiones que determinan estatus migratorio, libertad y acceso a servicios básicos.
Aprende Hoy
Inventario de uso de IA del DHS → Publicación oficial que enumera proyectos de IA en agencias, describiendo propósitos, cantidades y contexto de despliegue.
ImmigrationOS → Plataforma de ICE para analizar expedientes migratorios junto a antecedentes penales y supuestas conexiones criminales.
Escaneo retiniano → Identificación biométrica basada en patrones retinianos únicos; ICE planea adquirirla para complementar huellas y rostro.
Puntuación de riesgo → Modelo algorítmico que asigna niveles de riesgo a no ciudadanos para priorizar vigilancia y acciones de cumplimiento.
Generative AI Public Sector Playbook → Guía del DHS para desarrollar IA generativa con normas de privacidad, seguridad y responsabilidad en el sector público.
Este Artículo en Resumen
En abril de 2025, DHS reportó 105 usos activos de IA en migración; herramientas biométricas y análisis aceleran procesos, pero generan graves dudas sobre privacidad, sesgo y transparencia entre defensores y abogados.
— Por VisaVerge.com