decision_explainer
decision_explainer
Genera explicaciones legibles por humanos de por qué se tomó una decisión de verificación. Combina los scores y flags de cada agente en una lista de razones priorizadas para auditoría y revisión manual.
When to use
Usar en el decision_agent después de calcular el score global. Siempre generar explicaciones, pero son críticas para casos de MANUAL_REVIEW donde un operador humano necesita contexto.
Instructions
- Recopilar todos los scores parciales y flags de cada agente.
- Identificar los factores que más contribuyeron a la decisión (mayor peso * desviación del umbral).
- Generar razones en lenguaje natural:
"Face match score bajo (0.62): posible discrepancia entre selfie y documento"."Documento posiblemente manipulado: ELA score 0.78".
- Ordenar razones por impacto (contribución al score global).
- Incluir máximo 5 razones principales en la respuesta.
- Para casos de
MANUAL_REVIEW, incluir recomendaciones al operador. - Registrar las razones como parte del evento de auditoría.
More from davidcastagnetoa/skills
traefik
Reverse proxy moderno con autodiscovery nativo en Kubernetes y Let's Encrypt
67easyocr
OCR alternativo a PaddleOCR, excelente en caracteres especiales y múltiples scripts
36prisma-nestjs-patterns
>
26c4_model_structurizr
Diagramas de arquitectura C4 como código con Structurizr DSL, versionados en Git
24exif_metadata_analyzer
Analizar metadatos EXIF para detectar edición previa con Photoshop, GIMP u otros editores
19insightface_arcface
Reconocimiento facial de estado del arte con ArcFace R100 para comparar selfie con foto del documento
15