Los casos de uso que siguen son un ejemplo ilustrativo por sector. Cada snapshot muestra qué evalúa el agente antes de actuar, qué ejecuta de forma autónoma cuando puede hacerlo con garantías, y qué recibe el analista cuando no puede.

Triaje de Alertas de Hurto — Visión Artificial

Los modelos de visión artificial detectan posibles hurtos y generan alertas que el agente de seguridad tiene que triar. El problema no es la detección: es el volumen de alertas sin contexto y el coste asimétrico de equivocarse. En seguridad retail el error crítico no es dejar pasar un hurto — es intervenir incorrectamente sobre un cliente legítimo. Un hurto no detectado cuesta €45–€120 en artículo. Una intervención incorrecta puede costar €5.000–€50.000 en reclamaciones y riesgo regulatorio EU AI Act, más el daño reputacional que ningún P&L recoge. AyGLOO añade una capa agéntica sobre ese modelo con una función de decisión precisa: optimizar el coste esperado de intervención a nivel tienda y red — no solo el triaje de una alerta individual. El agente elige explícitamente entre tres estrategias según el coste esperado de cada una en el segmento concreto: intervenir (vía escalada al operador), verificar primero, o no actuar. Esa elección no es un filtro — es una decisión de negocio que acumula impacto en cientos de alertas al día.

1
El agente escala con prioridad alta cuando la secuencia de comportamiento es completa y el ISA confirma fiabilidad en el segmento. Solicita revisión del clip cuando la señal es ambigua. Archiva sin consumir al operador cuando es débil. → Operador actúa solo donde la certeza justifica el riesgo de intervenir
2
El mapa de atención visual demuestra que la alerta se generó por comportamiento y no por características de apariencia — el argumento regulatorio clave ante el EU AI Act y ante cualquier reclamación del cliente. → Defensa regulatoria documentada automáticamente en cada alerta
3
El ISA detecta los segmentos con mayor tasa de falso positivo — baja iluminación nocturna (31% FP), zonas de autocaja — antes de que el operador actúe. En esos segmentos el agente bloquea la escalada directa y solicita verificación visual. → FP en baja iluminación: de 31% sin ISA a <8% con verificación guiada
4
El Fairness verifica automáticamente que la alerta no está correlacionada con atributos de apariencia del sujeto — y la trazabilidad completa EU AI Act Arts. 9, 13, 14 y 15 se genera sin esfuerzo adicional del equipo. → Audit trail listo para inspección regulatoria en cada decisión
Hoy, lo que un agente de seguridad suele recibir
Alerta #SL-20260218-1042 Confianza: 87% · ALTA Tienda: Madrid Centro · Cámara: Pasillo-7-Este · Sin contexto adicional
Con AyGLOO. Misma alerta, completamente enriquecida
Alerta #SL-20260218-1042 · Pasillo-7-Este Confianza: 87% · Prioridad: ALTA El agente actúa
XAI · Twin Secuencia de comportamiento detectada CV Mapa de atención visual ISA Fiabilidad del modelo en este segmento Fairness Verificación de sesgo demográfico CF Qué cambiaría la decisión del modelo Econ Coste esperado por acción Action Decisión del agente PDF Trazabilidad regulatoria
1. Qué secuencia de comportamiento generó esta alerta. Twin model (fidelidad 96.3%)
100%IF gesto_ocultación = true AND traslado_artículo_interior_ropa = true AND tiempo_permanencia_estantería > 4× media_segmento → Secuencia completa detectada: el agente escala con prioridad alta. El operador confirma antes de intervenir.
79%IF comportamiento_conductual_D = true AND comportamiento_conductual_A = true sin comportamiento_B_confirmado → Señal probable pero incompleta. El agente solicita revisión del clip de los 30 segundos anteriores antes de escalar.
58%IF comportamiento_conductual_D = true sin otros factores → Señal débil aislada. El agente archiva automáticamente. El coste de intervenir supera el valor del artículo en riesgo.
El agente actúa de forma diferenciada según el patrón: escala cuando la secuencia es completa, solicita verificación cuando es incompleta, archiva cuando es aislada. La regla del 58% es la más valiosa para el operador: el agente hace explícito que intervenir con señal débil destruye más valor (reputacional y regulatorio) del que protege.
XAITwin
2. Mapa de atención visual. Qué zonas de la imagen activaron el modelo
El modelo concentró su activación en tres zonas espaciales: zona de transferencia mano-ropa interior (38% de activación) · límite de interacción con la estantería (24%) · corredor de trayectoria hacia salida (14%) · Clientes en segundo plano desactivados (<4% de activación cada uno) · La atención espacial confirma que el modelo se ancló en la secuencia de comportamiento, no en características físicas del sujeto
Este es el módulo más diferenciador en visión artificial: no explica qué variable numérica fue más importante, sino en qué zonas físicas de la imagen puso atención el modelo. Demuestra ante una auditoría regulatoria que la alerta se generó por conducta y no por apariencia — y es la pieza clave de la defensa ante cualquier reclamación.
CV
3. Doble check del modelo en este segmento (ISA)
Segmento: "pasillo interior, iluminación normal, horario diurno" · Tasa de falsos positivos: 14% · Precisión: 86% · Sin deriva detectada en las últimas 8 semanas · Fiabilidad suficiente para escalar: el agente activa prioridad alta.
Segmento de mayor incertidumbre: cámara-pasillo en baja iluminación nocturna (18:00–22:00) · tasa de falsos positivos sube al 31% por interferencia entre ajuste de ganancia de cámara y detección de sombras · En ese horario el agente bloquea la escalada directa y solicita verificación visual del clip antes de notificar al operador.
El ISA es el doble check del agente antes de escalar: confirma que el modelo se comporta bien en el segmento concreto de iluminación, ángulo y horario. Un ISA rojo en baja iluminación bloquea la escalada aunque la regla del Twin diga 100% — porque un 31% de falsos positivos hace que intervenir sin verificar sea económicamente irracional.
ISA
4. Verificación de sesgo demográfico (Fairness)
Sin señales de sesgo demográfico en esta alerta: verificación de invariancia por tono de piel, edad y género completada · La alerta está generada exclusivamente por características conductuales, sin contribución de atributos de apariencia · Tasa de alerta por perfil demográfico: dentro de los umbrales EU AI Act Art. 10 · Registro de verificación generado automáticamente para el expediente de auditoría.
En videovigilancia conductual el Fairness no es opcional: el EU AI Act exige que los sistemas de alto riesgo demuestren operación sin sesgo para cada decisión individual. Si el Fairness detectara correlación con atributos de apariencia, el agente no escalaría — generaría una alerta de revisión del modelo antes de procesar nuevas alertas del mismo segmento.
Fairness
5. CF. Qué habría que cambiar en la escena para que la alerta desapareciera
Eliminar el gesto de ocultación: confianza baja de 87% a 41% (por debajo del umbral de alerta) · Solo trayectoria hacia salida sin gesto: confianza 38%, no genera alerta · La decisión está impulsada por la secuencia gesto + traslado de artículo, no por la ubicación ni la apariencia del sujeto
El CF hace dos cosas: confirma que la decisión se puede revertir eliminando el comportamiento, no el perfil de la persona — argumento regulatorio directo. Y proporciona al operador la cadena causal exacta que necesita para documentar la intervención o la no-intervención.
CF
6. Función de decisión económica. Coste esperado por acción según segmento
Acción
Coste si FP (14%)
Coste si FN
Coste esperado neto
Intervenir sin verificar
€800–€50.000
reclamación + riesgo regulatorio
€0
Alto · irracional con 14% FP
Verificar + intervenir ✓
€0
confirmación humana elimina FP
€0
mínimo retraso de verificación
Mínimo
No actuar (señal débil)
€0
€45–€120
valor del artículo
Bajo · racional con 58% FP
→ El agente elige verificar + intervenir: elimina el FP antes de actuar · en segmento nocturno (31% FP) bloquea la escalada directa — el coste esperado de intervenir sin verificar supera el valor de cualquier artículo en riesgo
La asimetría de costes es la clave de este caso: un falso positivo puede costar hasta 400× el valor del artículo en riesgo. El agente no optimiza la tasa de detección — optimiza el coste esperado de cada acción dado el perfil de fiabilidad del modelo en ese segmento concreto. Eso hace que la decisión de no escalar con señal débil sea económicamente explícita, no una omisión.
Econ
7. Decisión del agente
El agente escala con prioridad alta — el operador confirma antes de intervenir
Secuencia completa detectada, ISA confirma 14% FP en este segmento diurno, Fairness sin alertas · El agente notifica al operador con el expediente completo: mapa de atención visual, CF, nivel de confianza y trazabilidad regulatoria · El operador revisa el clip de 30 segundos marcado y confirma la intervención · Registro de confirmación humana generado automáticamente conforme a EU AI Act Art. 14
o bien, si la señal fuera probable pero incompleta (79%) o el ISA detectara segmento nocturno (31% FP)
→ El agente solicita revisión del clip:extrae automáticamente los 30 segundos anteriores a la alerta · marca las zonas de atención visual relevantes · el operador verifica antes de decidir si escalar · no hay intervención sin confirmación visual del traslado
o bien, si la señal fuera débil y aislada (58%)
→ El agente archiva automáticamente:cierra la alerta sin consumir al operador · registra como falso positivo probable para la cola de reentrenamiento del segmento · el coste esperado de intervenir supera el valor del artículo en cualquier escenario de 58% de señal
El agente no filtra alertas — elige entre tres estrategias con consecuencias económicas distintas. Escalar sin verificar en segmento nocturno puede costar más que el artículo en riesgo en un solo incidente. Archivar una señal débil acumula €45–€120 de shrinkage tolerable. La elección correcta depende del perfil de fiabilidad del modelo en ese segmento concreto, no de la puntuación de confianza aislada. Multiplicado por cientos de alertas al día en una red de tiendas, esa elección es una decisión de P&L, no solo de operación de seguridad. El EU AI Act Art. 14 exige que un humano confirme antes de cualquier intervención sobre una persona — el agente no sustituye esa confirmación, pero determina con qué evidencia, con qué urgencia y con qué coste esperado llega al operador.
⚠ La intervención sobre un cliente requiere confirmación del operador humano antes de ejecutarse. EU AI Act Art. 14 — human oversight obligatorio para sistemas de vigilancia conductual de alto riesgo. AyGLOO genera el registro de esa confirmación automáticamente para cada alerta.
ActionPDF

AyGLOO se integra sobre cualquier modelo de visión artificial existente sin acceder al código subyacente. Los datos de vídeo no salen del perímetro del cliente. Ejemplo ilustrativo — cada despliegue se adapta a los modelos, datos y operativa de cada entidad.

Impacto estimado · tiendas con sistema de alerta activo
−78%
Intervenciones incorrectas en segmentos de baja iluminación
De 31% FP sin ISA a <8% con verificación guiada por el agente · reclamaciones y riesgo regulatorio eliminados en ese segmento
0
Alertas procesadas sin trazabilidad regulatoria
EU AI Act Arts. 9, 13, 14 y 15 cubiertos automáticamente en cada alerta · audit trail listo para inspección sin esfuerzo adicional del equipo
+40%
Capacidad de triaje del operador
El agente archiva automáticamente las señales débiles · el operador gestiona solo las alertas donde su criterio añade valor real