コンテンツにスキップ

クイックスタート

ランタイムを選んで、数分で AI 呼び出しを開始しましょう。

  • サポート対象のプロバイダーの API キー(例:OPENAI_API_KEYANTHROPIC_API_KEYDEEPSEEK_API_KEY
  • AI-Protocol リポジトリ(ローカルにない場合は GitHub から自動取得されます)
[dependencies]
ai-lib = "0.7"
tokio = { version = "1", features = ["full"] }
Terminal window
export ANTHROPIC_API_KEY="your-key-here"
use ai_lib::{AiClient, StreamingEvent};
use futures::StreamExt;
#[tokio::main]
async fn main() -> ai_lib::Result<()> {
// クライアントを作成 — プロトコルマニフェストは自動的に読み込まれます
let client = AiClient::new("anthropic/claude-3-5-sonnet").await?;
// ストリーミングチャット
let mut stream = client.chat()
.user("What is AI-Protocol?")
.temperature(0.7)
.max_tokens(500)
.stream()
.execute_stream()
.await?;
while let Some(event) = stream.next().await {
match event? {
StreamingEvent::ContentDelta { text, .. } => print!("{text}"),
StreamingEvent::StreamEnd { .. } => println!(),
_ => {}
}
}
Ok(())
}
Terminal window
cargo run

1. パッケージをインストールする

Section titled “1. パッケージをインストールする”
Terminal window
pip install ai-lib-python>=0.6.0
Terminal window
export ANTHROPIC_API_KEY="your-key-here"
import asyncio
from ai_lib_python import AiClient
async def main():
# クライアントを作成 — プロトコルマニフェストは自動的に読み込まれます
client = await AiClient.create("anthropic/claude-3-5-sonnet")
# ストリーミングチャット
async for event in client.chat() \
.user("What is AI-Protocol?") \
.temperature(0.7) \
.max_tokens(500) \
.stream():
if event.is_content_delta:
print(event.as_content_delta.text, end="")
print()
asyncio.run(main())
Terminal window
python main.py

AI-Lib の醍醐味:1 つの文字列を変更するだけでプロバイダーを切り替えられます。

// Rust — モデル ID を変更するだけ
let client = AiClient::new("openai/gpt-4o").await?;
let client = AiClient::new("deepseek/deepseek-chat").await?;
let client = AiClient::new("gemini/gemini-2.0-flash").await?;
# Python — 同じこと
client = await AiClient.create("openai/gpt-4o")
client = await AiClient.create("deepseek/deepseek-chat")
client = await AiClient.create("gemini/gemini-2.0-flash")

コード変更は不要です。プロトコルマニフェストが各プロバイダーのエンドポイント、認証、パラメータマッピング、ストリーミング形式を処理します。