Prescriptive Decision AI

Tus modelos predicen. Nuestros agentes actúan.

Conectado a tus modelos ML. Actúa de forma autónoma cuando puede. Cuando no, recomienda al analista con contexto, explicación y trazabilidad.

Modelos soportados

ClasificaciónRegresiónForecastingComputer VisionNLP/LLMBasados en grafosClasificaciónRegresiónForecastingComputer VisionNLP/LLMBasados en grafos

Una capa de decisión transversal

Más allá de la analítica prescriptiva tradicional y la IA explicable.

01VERIFICAR

El agente actúa solo cuando puede hacerlo con garantías

Antes de ejecutar una decisión, el sistema evalúa la fiabilidad del modelo en ese caso o contexto concreto. Si supera el umbral definido, actúa. Si no, deriva el caso al analista. Nunca automatiza a ciegas.

02EXPLICAR

Cada acción queda explicada y documentada

Tanto si decide el agente como si interviene un analista, el sistema registra qué se hizo, por qué, con qué datos y con qué nivel de confianza. El equipo puede revisarlo. Auditoría y compliance también.

03ESCALAR

Sabe cuándo actuar y cuándo escalar al humano

La autonomía no es todo o nada. El agente resuelve de forma autónoma los casos que cumplen los criterios definidos y eleva al analista los que requieren juicio humano, con toda la información preparada para acelerar la decisión.

Tecnologías basadas en investigación

Construida sobre I+D NEOTEC y CERVERA: fondos Next Generation EU gestionados por CDTI.

Twin Models (≥95% fidelidad)Intelligent Segment Analysis (ISA)Graph XAIIA Explicable en LLMs

A diferencia de las explicaciones post-hoc genéricas, nuestros Twin Models replican estructuralmente el comportamiento de tu modelo original con ≥95% de fidelidad manteniendo total transparencia. Obtienes la lógica decisional completa: no solo importancias de features.

Esto permite:

  • Explicaciones globales: cómo funciona el modelo en conjunto
  • Explicaciones locales: por qué esta predicción concreta
  • Análisis contrafactual: qué cambiar para un resultado distinto
  • Trazas de auditoría de grado regulatorio

Detecta automáticamente segmentos de datos críticos donde el modelo tiene errores sistemáticos, sesgo oculto, incertidumbre anormalmente alta o rendimiento excepcionalmente fuerte.

Te pasa de reactivo (esperando fallos) a proactivo (detectando problemas antes del impacto en producción).

Investigación pionera en explicación de modelos basados en redes: solución Graph XAI de referencia para producción en Europa, respaldada por I+D CDTI.

Esencial para:

  • Detección de fraude en redes
  • Riesgo en cadena de suministro
  • Cualquier dominio donde las relaciones entre entidades importan

Prompting para la Transparencia

  • Chain-of-Thought (CoT): el LLM razona en voz alta con pasos lógicos (método AyGLOO)
  • Tree / Graph-of-Thought: diagramas de flujo del razonamiento del modelo (método AyGLOO)

Auditoría y Confianza Post-hoc

  • Atribución: identifica frases y palabras influyentes del prompt
  • Detectar regiones de imagen influyentes mediante perturbaciones controladas
  • Verificación de hechos para reducir alucinaciones
  • Métricas de incertidumbre

¿Quién se beneficia de nuestra solución?

Equipos de negocio

Acciones concretas y priorizadas con visibilidad clara sobre impacto, coste y riesgo.

Equipos de Data Scientist

Identifican errores del modelo, inconsistencias y anomalías por segmento para impulsar mejoras de precisión.

Equipos de compliance

Explicabilidad trazable, razonamiento decisional claro e informes regulatorios estructurados.

circulo explicable

¿Quién se beneficia de nuestra solución?

Equipos de negocio

Acciones concretas y priorizadas con visibilidad clara sobre impacto, coste y riesgo.

Equipos de Data Scientist

Identifican errores del modelo, inconsistencias y anomalías por segmento para impulsar mejoras de precisión.

Equipos de compliance

Explicabilidad trazable, razonamiento decisional claro e informes regulatorios estructurados.

Cómo funciona

1

CONECTA

Conecta AyGLOO a tus modelos de IA/ML existentes vía API o batch — SaaS o self-hosted, independientemente del framework.

2

DECIDE Y ACTÚA

AyGLOO evalúa la fiabilidad de cada decisión y actúa de forma autónoma cuando puede. Cuando no, recomienda al analista la mejor acción, con contexto y nivel de confianza.

3

AUDITA Y ESCALA

Cada decisión queda explicada, monitorizada y trazada. El sistema detecta drift, controla la equidad y escala al humano cuando es necesario.

Banca

Anti-Money Laundering

Automatizar lo que se puede automatizar. Preparar al analista para lo que no.

Alta fiabilidadEl agente actúa y cierra sin intervención humana

La alerta supera el umbral de confianza definido. El agente ejecuta la acción, genera el borrador SAR y deja todo trazado. El analista no interviene.

Fiabilidad media o bajaEl agente prepara al analista para decidir en minutos
  • Recomendación de acción concreta con nivel de confianza
  • Explicación de por qué se generó la alerta, señal a señal
  • Análisis de red: cuentas vinculadas, jurisdicciones y patrones de estratificación invisibles por cliente individual
  • Identificación automática de dónde el modelo tiene más incertidumbre en este tipo de caso
  • Borrador SAR pre-rellenado, listo para revisar y firmar

Impacto típico: Las alertas de alta fiabilidad se resuelven sin analista. El resto llega con contexto completo: el tiempo de investigación pasa de horas a minutos y el informe regulatorio se genera automáticamente.

Security Services

Detección de amenazas en videovigilancia

Automatizar el triaje de alertas visuales cuando el modelo es fiable. Asistir al operador cuando no lo es.

Alta fiabilidadEl agente escala la alerta al protocolo definido

Sin intervención del operador. El agente actúa, notifica y genera el parte de incidencia. Audit trail completo desde el primer segundo.

Fiabilidad baja o contexto ambiguoEl agente asiste al operador con contexto visual y recomendación
  • El agente señala qué zona de la imagen activó la alerta y por qué
  • Explicación en lenguaje natural lista para el parte de incidencia
  • Nivel de confianza del modelo en ese contexto concreto
  • El agente detecta en qué condiciones el modelo falla sistemáticamente: baja luz, ángulo, oclusión
  • Recomendación de acción con trazabilidad exportable

Impacto típico: Las alertas de alta fiabilidad se escalan sin que el operador intervenga. Las dudosas llegan con contexto visual y recomendación lista. El tiempo de triaje se reduce drásticamente y los falsos positivos dejan de ser una caja negra.

Utilities

Predicción de demanda y generación renovable

Automatizar decisiones de despacho y puja cuando el modelo es fiable. Alertar al trader cuando no lo es.

Alta fiabilidadEl agente ejecuta la puja o el despacho directamente

Dentro de los límites operativos definidos. Sin fricción, sin espera. El agente actúa, registra cada decisión y la deja trazada.

Fiabilidad baja o contexto atípicoEl agente avisa al trader con contexto completo
  • Previsión desglosada por variable: meteorología, estacionalidad, carga
  • El agente detecta en qué condiciones el modelo falla antes de que el error llegue al mercado
  • Simulación de escenarios: qué ocurre si cambia el viento, la temperatura o la demanda prevista
  • Recomendación de puja ajustada al perfil de riesgo, lista para aprobar

Impacto típico: Las decisiones de despacho de alta fiabilidad se ejecutan sin intervención. El trader solo actúa donde el modelo tiene dudas, con contexto y simulación preparados. Resultado: menos costes de desequilibrio y mejor posición en mercados DA/ID.

Product snapshot: Alerta AML

Ejemplo ilustrativo de lo que AyGLOO ofrece para un caso de uso en prevención de blanqueo de capitales.

Introducción y beneficios

Los sistemas de AML generan un gran volumen de alertas que los equipos de cumplimiento tienen dificultades para investigar en profundidad. Un analista invierte entre 30 y 45 minutos por alerta en investigación manual — y el 70–80% de esas alertas terminan archivadas sin acción. El problema real no es detectar más alertas: es minimizar el riesgo regulatorio bajo la restricción de una capacidad de compliance que siempre es limitada. Cuando el modelo señala una alerta, el analista recibe una puntuación de riesgo, no una explicación. AyGLOO añade una capa agéntica sobre ese proceso: el agente evalúa la fiabilidad del modelo y las señales que sostienen cada alerta concreta. Cuando las señales se sostienen y la fiabilidad es total, escala automáticamente. Cuando las señales no se sostienen, archiva con trazabilidad completa y fundamentación regulatoria lista para cualquier revisión. Cuando hay incertidumbre, deriva al analista con el expediente preparado para decidir en minutos, no en horas.

1
El agente escala automáticamente cuando la fiabilidad es total y genera el borrador SAR. Cuando las señales no se sostienen, archiva con trazabilidad completa. El analista solo interviene donde hay incertidumbre real. → Reduce falsos positivos y backlog sin aumentar el equipo
2
El análisis de red detecta patrones de blanqueo coordinado entre cuentas vinculadas, invisibles si se analiza cada cliente por separado. → El fraude organizado representa el 30–40% del valor total del blanqueo
3
El ISA es el doble check del agente antes de actuar: confirma si el modelo se comporta bien en ese segmento concreto. Si no, el agente deriva al analista aunque la puntuación sea alta. → El 70–90% de alertas AML son falsos positivos: el ISA evita escalarlos
4
El borrador del informe regulatorio y la trazabilidad completa se generan automáticamente, cubriendo SEPBLAC, EBA y GDPR Art. 22. → Audit trail listo para el regulador: mitiga el riesgo de sanción.
Ejemplo ilustrativo
Con AyGLOO. Misma alerta, completamente enriquecida
Alerta #AML-49271 · Prioridad: Alta Puntuación de riesgo: 0.94 El agente actúa
XAI Explicación de la alerta Twin Reglas con nivel de fiabilidad ISA Fiabilidad del modelo por segmento Graph Análisis de red What-if Análisis de simulación CF Evidencia mínima que cambia la decisión Action Decisión del agente PDF Trazabilidad regulatoria
1. Por qué se generó esta alerta. Twin model (fidelidad 96.3%)
100%IF patrón_operacional_A > umbral AND indicador_geográfico_B = true → Escalar inmediatamente. Fiabilidad total: actuar sin revisión manual.
81%IF cambios_perfil_30d ≥ umbral AND volumen_operacional > media_segmento × factor → Posible cuenta instrumental. Verificar antes de escalar.
63%IF indicador_geográfico_B = true sin otros factores → Señal débil aislada. No escalar solo con esta regla.
La regla de fiabilidad total activa la ejecución autónoma del agente: escala la alerta y genera el borrador SAR sin esperar al analista. Las reglas con fiabilidad menor son las que el agente deriva al analista de primer nivel, con el contexto completo ya preparado.
XAITwin
2. Análisis de red vinculada
7 cuentas vinculadas comparten 3 beneficiarios en 4 jurisdicciones · Patrón de envíos escalonados consistente con estratificación · 2 posibles cuentas instrumentales: inactivas 11 meses, reactivadas con salidas de alto volumen
Este patrón no es visible analizando cada cliente por separado. El análisis de red lo detecta porque conecta entidades por sus relaciones, no solo por sus valores individuales.
Graph
3. Doble check del modelo en este segmento (ISA)
Micro-segmento: "alto volumen de fraccionamiento, flujos UE hacia no-UE" · Tasa de conversión a informe regulatorio: 73% · Tasa de falsos positivos: 8% · Sin deriva detectada en las últimas 12 semanas · Alta fiabilidad: actuar con confianza.
El ISA es el doble check del agente antes de escalar automáticamente. Si el semáforo fuera amarillo, el agente no actuaría aunque la puntuación sea alta — derivaría al analista con el contexto completo.
ISA
4. What-if. Qué señal impulsa la alerta
Eliminar señal de fraccionamiento: puntuación baja a Media (0.61) · Eliminar señal de jurisdicción: sigue siendo Alta (0.82) · La alerta se sostiene incluso sin el factor principal.
El análisis de simulación evalúa la sensibilidad de la alerta señal a señal: confirma qué factor es determinante y cuáles son secundarios antes de que el agente ejecute o derive.
What-if
5. CF. Evidencia mínima que cambiaría la decisión del agente
Sin el patrón de estratificación de red (7 cuentas vinculadas): puntuación baja a Media (0.67) · el agente no escalaría automáticamente — derivaría al analista de primer nivel para revisión · Sin la señal de fraccionamiento Y sin red vinculada: puntuación baja a Baja (0.41), caso archivable · La combinación fraccionamiento + red es la que sostiene la escalada automática; ninguna de las dos señales por separado la justificaría
El CF no es sensibilidad: es la cadena causal que el analista de nivel 2 necesita para defender el SAR ante el regulador. No es "la puntuación era 0.94" — es "estas dos señales combinadas son las que justifican la escalada, y sin cualquiera de ellas la decisión habría sido distinta".
CF
6. Decisión del agente
El agente escala — sin intervención del analista de primer nivel
Las señales se sostienen y la fiabilidad es total · Escala automáticamente la alerta al analista de nivel 2 · Genera el borrador SAR con narrativa completa y evidencias vinculadas · Trazabilidad exportable en PDF/CSV · Conforme a SEPBLAC, EBA y GDPR Art. 22 · El analista de nivel 2 revisa y firma en minutos, no redacta desde cero
o bien, si las señales no se sostienen (CF confirma que ninguna es suficiente por separado)
→ El agente archiva automáticamente: trazabilidad completa del razonamiento exportable · fundamentación regulatoria lista para cualquier revisión · sin intervención del analista · el archivo queda documentado y es auditable
o bien, si la fiabilidad fuera menor o el ISA señalara incertidumbre
→ El agente deriva al analista de primer nivel: alerta enriquecida con explicación señal a señal, análisis de red vinculada, ISA del segmento y borrador SAR parcial · El analista decide si escalar o archivar con contexto completo en minutos
El agente no tiene sesgo pro-escalada: tiene criterio en los dos sentidos. Escala cuando las señales se sostienen y la fiabilidad lo garantiza. Archiva cuando no se sostienen, con la misma trazabilidad regulatoria. Deriva al humano cuando hay incertidumbre real. El agente no sustituye la firma del analista de nivel 2 porque la regulación exige responsabilidad humana en el cierre del SAR — lo que sí elimina es todo el trabajo previo a esa firma.
ActionPDF
Impacto estimado a nivel de cartera · 20.000 alertas/año
−75%
Tiempo de investigación por alerta
De 30–45 min a menos de 10 min · El agente prepara el expediente, el analista decide
+60%
Alertas resueltas sin intervención humana
El agente actúa de forma autónoma en los casos de fiabilidad total
€0
Coste de preparación del informe regulatorio
SAR generado automáticamente · Audit trail listo para SEPBLAC, EBA y GDPR Art. 22

Dos caminos. Una plataforma.

Ya tengas modelos de IA/ML o estés empezando desde cero, AyGLOO se adapta a ti.

Ya tienes IA/ML desplegada

AyGLOO se conecta como una capa de decisión prescriptiva sobre tus modelos existentes: SaaS o local, cualquier modelo ML/IA vía API, configuración específica por caso de uso, interrupción mínima.

Todavía no tienes IA/ML

Construimos el modelo predictivo junto con la capa prescriptiva integrada desde el primer día: de principio a fin, desde los datos hasta decisiones accionables, con explicabilidad y gobernanza incorporadas.

Cronograma realista

FASE 1

2–3 semanas

Evaluación de alcance y datos

FASE 2

6–8 semanas

Piloto en funcionamiento

FASE 3

10–14 semanas

Lanzamiento en producción

Los cronogramas se basan en implementaciones estándar de un solo caso de uso. Los programas de múltiples casos de uso siguen una hoja de ruta por fases.

¿Ya tienes modelos en producción, pero no decisiones automatizadas?

En 45 minutos identificamos qué decisiones puedes automatizar ya con los modelos y datos que ya tienes.