onnx_runtime

Installation
SKILL.md

onnx_runtime

Configura ONNX Runtime como motor de inferencia optimizado para ejecutar modelos de reconocimiento facial (ArcFace), detección de vida (MiniFASNet) y procesamiento de documentos en formato ONNX. Proporciona aceleración transparente en CPU y GPU mediante Execution Providers, reduciendo la latencia de inferencia en el pipeline KYC.

When to use

Usa esta skill cuando necesites configurar el runtime de inferencia ONNX dentro del model_server_agent. Aplica cuando los modelos ya estén exportados a formato ONNX y se requiera ejecutarlos con máxima eficiencia, seleccionando el Execution Provider adecuado (CPU, CUDA, TensorRT). Esta skill es independiente de la optimización TensorRT-ONNX y se centra en la configuración del runtime de inferencia.

Instructions

  1. Instalar ONNX Runtime con soporte GPU:

    pip install onnxruntime-gpu  # Para GPU con CUDA
    # o
    pip install onnxruntime      # Solo CPU
    
  2. Crear una sesión de inferencia con el Execution Provider apropiado:

Related skills
Installs
3
First Seen
Mar 6, 2026