Introducción
Bienvenido a AI-Lib
Sección titulada «Bienvenido a AI-Lib»AI-Lib es un ecosistema de código abierto que estandariza la forma en que las aplicaciones interactúan con los modelos de IA. En lugar de escribir código específico de cada proveedor para cada servicio de IA, se utiliza una única API unificada — y la configuración del protocolo se encarga del resto.
La idea central
Sección titulada «La idea central»Toda la lógica son operadores, toda la configuración es protocolo.
Los SDKs de IA tradicionales incorporan lógica específica del proveedor en el código: diferentes endpoints HTTP, diferentes nombres de parámetros, diferentes formatos de streaming, diferentes códigos de error. Al cambiar de proveedor, hay que reescribir código.
AI-Lib adopta un enfoque diferente:
- AI-Protocol define cómo comunicarse con cada proveedor en manifiestos YAML
- Implementaciones en tiempo de ejecución (Rust, Python) leen estos manifiestos y ejecutan las solicitudes
- Lógica sin codificar — ninguna rama
if provider == "openai"en ningún lugar
Tres proyectos, un ecosistema
Sección titulada «Tres proyectos, un ecosistema»| Project | Role | Language | Version | Distribution |
|---|---|---|---|---|
| AI-Protocol | Capa de especificación | YAML/JSON | v0.5.0 | GitHub |
| ai-lib-rust | Implementación en tiempo de ejecución | Rust | v0.7.1 | Crates.io |
| ai-lib-python | Implementación en tiempo de ejecución | Python | v0.6.0 | PyPI |
La versión v0.5.0 del protocolo introduce las funcionalidades del protocolo V2: una arquitectura de tres capas, códigos de error estandarizados, banderas de características para extensiones de capacidades y un conjunto de pruebas de conformidad que garantiza un comportamiento idéntico entre los tiempos de ejecución.
AI-Protocol (Especificación)
Sección titulada «AI-Protocol (Especificación)»La base. Los manifiestos YAML describen más de 35 proveedores de IA: sus endpoints, autenticación, mapeo de parámetros, configuraciones de decodificador de streaming, reglas de clasificación de errores y capacidades. JSON Schema valida todo.
ai-lib-rust (Tiempo de ejecución Rust)
Sección titulada «ai-lib-rust (Tiempo de ejecución Rust)»Tiempo de ejecución de alto rendimiento. La canalización de streaming basada en operadores procesa las respuestas a través de etapas composables (Decoder → Selector → Accumulator → EventMapper). Resiliencia integrada con circuit breaker, limitador de velocidad y backpressure. Publicado en Crates.io.
ai-lib-python (Tiempo de ejecución Python)
Sección titulada «ai-lib-python (Tiempo de ejecución Python)»Tiempo de ejecución orientado al desarrollador. Soporte completo async/await, seguridad de tipos con Pydantic v2, telemetría de nivel producción (OpenTelemetry + Prometheus) y enrutamiento inteligente de modelos. Publicado en PyPI.
Características principales
Sección titulada «Características principales»- Más de 35 proveedores — OpenAI, Anthropic, Gemini, DeepSeek, Qwen y muchos más
- Streaming unificado — Mismos tipos
StreamingEventindependientemente del proveedor - Impulsado por protocolo — Todo el comportamiento definido en YAML, no en código
- Recarga en caliente — Actualice configuraciones de proveedores sin reiniciar
- Resiliencia — Circuit breaker, limitación de velocidad, reintentos, fallback
- Llamadas a herramientas — Llamadas a funciones unificadas entre proveedores
- Embeddings — Operaciones vectoriales y búsqueda de similitud
- Seguridad de tipos — Validación en tiempo de compilación (Rust) y en tiempo de ejecución (Pydantic)
Próximos pasos
Sección titulada «Próximos pasos»- Inicio rápido — Empiece en minutos
- Arquitectura del ecosistema — Comprenda cómo encajan las piezas
- AI-Protocol — Profundice en la especificación
- SDK Rust — Comience con Rust
- SDK Python — Comience con Python