はじめに
AI-Lib へようこそ
Section titled “AI-Lib へようこそ”AI-Lib は、アプリケーションが AI モデルとやり取りする方法を標準化するオープンソースのエコシステムです。各 AI サービス用にプロバイダー固有のコードを書く代わりに、単一の統合 API を使用し、プロトコル設定が残りを処理します。
核となる考え方
Section titled “核となる考え方”すべてのロジックはオペレーター、すべての設定はプロトコル。
従来の AI SDK は、プロバイダー固有のロジックをコードに組み込んでいます。異なる HTTP エンドポイント、異なるパラメータ名、異なるストリーミング形式、異なるエラーコード。プロバイダーを切り替えると、コードを書き直すことになります。
AI-Lib は別のアプローチを取ります:
- AI-Protocol は YAML マニフェストで各プロバイダーとの通信方法を定義します
- ランタイム実装(Rust、Python)はこれらのマニフェストを読み取り、リクエストを実行します
- ハードコーディングされたロジックはゼロ —
if provider == "openai"のような分岐はどこにもありません
3 つのプロジェクト、1 つのエコシステム
Section titled “3 つのプロジェクト、1 つのエコシステム”| プロジェクト | 役割 | 言語 | バージョン | 配布 |
|---|---|---|---|---|
| AI-Protocol | 仕様レイヤー | YAML/JSON | v0.5.0 | GitHub |
| ai-lib-rust | ランタイム実装 | Rust | v0.7.1 | Crates.io |
| ai-lib-python | ランタイム実装 | Python | v0.6.0 | PyPI |
プロトコル v0.5.0 リリースでは V2 プロトコル機能 を導入しています:3 層アーキテクチャ、標準化されたエラーコード、機能拡張用のフィーチャーフラグ、ランタイム間で同一の動作を保証するコンプライアンステストスイート。
AI-Protocol(仕様)
Section titled “AI-Protocol(仕様)”基盤となるものです。YAML マニフェストは 35 以上の AI プロバイダーを記述します:エンドポイント、認証、パラメータマッピング、ストリーミングデコーダー設定、エラー分類ルール、機能。
ai-lib-rust(Rust ランタイム)
Section titled “ai-lib-rust(Rust ランタイム)”高性能ランタイムです。オペレーターベースのストリーミングパイプラインが、構成可能なステージ(Decoder → Selector → Accumulator → EventMapper)を通じてレスポンスを処理します。サーキットブレーカー、レートリミッター、バックプレッシャーによる組み込みの耐障害性。Crates.io で公開されています。
ai-lib-python(Python ランタイム)
Section titled “ai-lib-python(Python ランタイム)”開発者フレンドリーなランタイムです。完全な async/await サポート、Pydantic v2 による型安全性、本番グレードのテレメトリ(OpenTelemetry + Prometheus)、インテリジェントなモデルルーティング。PyPI で公開されています。
- 35 以上のプロバイダー — OpenAI、Anthropic、Gemini、DeepSeek、Qwen など
- 統合ストリーミング — プロバイダーに関係なく同じ
StreamingEvent型 - プロトコル駆動 — すべての動作は YAML で定義され、コードには記述しません
- ホットリロード — 再起動せずにプロバイダー設定を更新可能
- 耐障害性 — サーキットブレーカー、レート制限、リトライ、フォールバック
- ツール呼び出し — プロバイダー間で統一された function calling
- 埋め込み — ベクトル操作と類似検索
- 型安全性 — コンパイル時(Rust)およびランタイム(Pydantic)検証
次のステップ
Section titled “次のステップ”- クイックスタート — 数分で始められます
- エコシステムアーキテクチャ — 各構成要素の関係を理解する
- AI-Protocol — 仕様を詳しく学ぶ
- Rust SDK — Rust で始める
- Python SDK — Python で始める