コンテンツにスキップ

はじめに

AI-Lib は、アプリケーションが AI モデルとやり取りする方法を標準化するオープンソースのエコシステムです。各 AI サービス用にプロバイダー固有のコードを書く代わりに、単一の統合 API を使用し、プロトコル設定が残りを処理します。

すべてのロジックはオペレーター、すべての設定はプロトコル。

従来の AI SDK は、プロバイダー固有のロジックをコードに組み込んでいます。異なる HTTP エンドポイント、異なるパラメータ名、異なるストリーミング形式、異なるエラーコード。プロバイダーを切り替えると、コードを書き直すことになります。

AI-Lib は別のアプローチを取ります:

  • AI-Protocol は YAML マニフェストで各プロバイダーとの通信方法を定義します
  • ランタイム実装(Rust、Python、TypeScript、Go)はこれらのマニフェストを読み取り、リクエストを実行します
  • ハードコーディングされたロジックはゼロif provider == "openai" のような分岐はどこにもありません

6 つのプロジェクト、1 つのエコシステム

Section titled “6 つのプロジェクト、1 つのエコシステム”
プロジェクト役割言語バージョン配布
AI-Protocol仕様レイヤーYAML/JSONv0.8.3GitHub
ai-lib-rustランタイム実装Rustv0.9.3Crates.io
ai-lib-pythonランタイム実装Pythonv0.8.3PyPI
ai-lib-tsランタイム実装TypeScriptv0.5.3npm
ai-lib-goランタイム実装Gov0.0.1Go Modules
ai-protocol-mockmock/テスト層Pythonv0.1.11PyPI

現在のリリースでは V2 能力に加えて、driftmanifest-consumptioncompliance-matrixfullchainrelease-gate の実行ガバナンス・ゲートが統合され、--report-only で段階導入できます。

基盤となるものです。YAML マニフェストは 37 の AI プロバイダーを記述します:エンドポイント、認証、パラメータマッピング、ストリーミングデコーダー設定、エラー分類ルール、機能。

高性能ランタイムです。オペレーターベースのストリーミングパイプラインが、構成可能なステージ(Decoder → Selector → Accumulator → EventMapper)を通じてレスポンスを処理します。サーキットブレーカー、レートリミッター、バックプレッシャーによる組み込みの耐障害性。Crates.io で公開されています。

開発者フレンドリーなランタイムです。完全な async/await サポート、Pydantic v2 による型安全性、本番グレードのテレメトリ(OpenTelemetry + Prometheus)、インテリジェントなモデルルーティング。PyPI で公開されています。

Node.js/npm 向けランタイム。V2 マニフェスト読み込み、統一エラー、ストリーミング、レジリエンス、そして Rust/Python と整合するコンプライアンス行列を提供します。

  • 37 のプロバイダー — OpenAI、Anthropic、Gemini、DeepSeek、Qwen など
  • 統合ストリーミング — プロバイダーに関係なく同じ StreamingEvent
  • プロトコル駆動 — すべての動作は YAML で定義され、コードには記述しません
  • ホットリロード — 再起動せずにプロバイダー設定を更新可能
  • 耐障害性 — サーキットブレーカー、レート制限、リトライ、フォールバック
  • ツール呼び出し — プロバイダー間で統一された function calling
  • 埋め込み — ベクトル操作と類似検索
  • 型安全性 — コンパイル時(Rust)およびランタイム(Pydantic)検証