RelayAI 开发文档
兼容 OpenAI SDK 的统一 AI API 网关。30 多个模型,一个 API Key,¥99/月起步。2 分钟接入。
快速开始
RelayAI 端点完全兼容 OpenAI SDK,修改两行代码即可接入。
1. 获取 API Key
在 api.relayai.com.cn 注册账户,从控制面板创建 API Key(以 rly- 开头)。新用户赠送 ¥10 测试额度。
2. 安装 SDK
pip install openainpm install openai3. 发送第一个请求
from openai import OpenAI client = OpenAI( api_key="rly-your-key-here", base_url="https://api.relayai.com.cn/v1", ) response = client.chat.completions.create( model="gpt-5.4", messages=[ {"role": "user", "content": "你好!"} ], ) print(response.choices[0].message.content)
import OpenAI from "openai"; const client = new OpenAI({ apiKey: "rly-your-key-here", baseURL: "https://api.relayai.com.cn/v1", }); const response = await client.chat.completions.create({ model: "gpt-5.4", messages: [{ role: "user", content: "你好!" }], }); console.log(response.choices[0].message.content);
curl https://api.relayai.com.cn/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer rly-your-key-here" \ -d '{"model": "gpt-5.4", "messages": [{"role": "user", "content": "你好"}]}'
第一次响应应在 300ms 内返回。如果遇到认证错误,请检查控制面板里的 API Key。
身份验证
所有请求需在 Authorization 头中带入 Bearer token:
Authorization: Bearer rly-your-key-here
您可以随时在 api.relayai.com.cn/token 创建和撤销 Key。每个 Key 有自己的用量配额,可限制为特定模型。
切勿将 API Key 提交到 git。使用环境变量:Python 中 os.environ["RELAYAI_KEY"],Node.js 中 process.env.RELAYAI_KEY。
支持的模型
用 model 参数传入模型 ID。完整定价见 /pricing。
OpenAI 系列(通过 Microsoft Azure 官方授权)
Anthropic 系列(通过 AWS Bedrock 官方授权)
DeepSeek
阿里 Qwen
智谱 GLM / 月之暗面 Kimi / MiniMax
对话补全
标准 OpenAI 兼容对话补全端点。所有 OpenAI SDK 特性都可用 — 系统提示、多轮对话、temperature/top_p、max_tokens、停止序列、JSON 模式、函数调用。
response = client.chat.completions.create( model="gpt-5.4", messages=[ {"role": "system", "content": "你是一个有帮助的助手。"}, {"role": "user", "content": "用 3 句话解释量子纠缠"}, ], temperature=0.7, max_tokens=500, )
流式响应
设置 stream=True 可接收 Server-Sent Events。响应以 OpenAI 格式逐 token 流式返回。
stream = client.chat.completions.create( model="gpt-5.4", messages=[{"role": "user", "content": "写一首关于代码的俳句"}], stream=True, ) for chunk in stream: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="", flush=True)
函数调用
大多数模型支持 OpenAI 格式的函数调用(tools 参数)。GPT-5 系列、Claude、DeepSeek、Qwen、GLM 都有原生支持。
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取城市当前天气",
"parameters": {
"type": "object",
"properties": {"city": {"type": "string"}},
"required": ["city"],
},
},
}]
response = client.chat.completions.create(
model="gpt-5.4",
messages=[{"role": "user", "content": "东京天气怎么样?"}],
tools=tools,
)
tool_calls = response.choices[0].message.tool_calls
图像输入
GPT-5 系列、GPT-4o、Claude Opus/Sonnet/Haiku 支持图像输入。
response = client.chat.completions.create( model="gpt-5.4", messages=[{ "role": "user", "content": [ {"type": "text", "text": "这张图里有什么?"}, {"type": "image_url", "image_url": {"url": "https://example.com/image.jpg"}} ] }], )
错误处理
RelayAI 返回标准 HTTP 状态码和 OpenAI 兼容的错误体。
速率限制
每个套餐的默认限制(每个 API Key):
- 入门套餐: 10 RPS / 100 万 token/分钟
- 进阶套餐: 30 RPS / 500 万 token/分钟
- 团队套餐: 100 RPS / 2000 万 token/分钟
- 专业版: 300 RPS / 5000 万 token/分钟
速率限制信息在响应头中返回:X-RateLimit-Limit、X-RateLimit-Remaining、X-RateLimit-Reset。如需更高限制,邮件 support@relayai.com.cn。
迁移指南
从 OpenAI 直连
# 之前 client = OpenAI(api_key="sk-...") # 之后 — 仅改 base_url 和 key client = OpenAI( api_key="rly-...", base_url="https://api.relayai.com.cn/v1", ) # 模型名相同:gpt-5.5、gpt-4o、o1 等
从 OpenRouter
# 之前 — OpenRouter 用 "provider/model" 格式 client = OpenAI( api_key="sk-or-...", base_url="https://openrouter.ai/api/v1", ) # 之后 — RelayAI 用裸模型名 client = OpenAI( api_key="rly-...", base_url="https://api.relayai.com.cn/v1", ) # openrouter: openai/gpt-5.5 → relayai: gpt-5.5 # openrouter: anthropic/claude-opus → relayai: claude-opus-4-7
从淘宝灰色中转
# 之前(不稳定,每月封号) client = OpenAI( api_key="sk-xxxx", base_url="https://gray-relay.example.com/v1", ) # 之后(稳定,永不封号) client = OpenAI( api_key="rly-...", base_url="https://api.relayai.com.cn/v1", ) # 模型名兼容,业务代码不用改