LLMoxy 是一个 OpenAI 兼容的大模型聚合网关。你只需要一个 LLMoxy API Key,就可以在 OpenAI、Claude、Gemini 等模型之间切换,不必分别申请或管理不同厂商的账号。
创建 API Key
- 在 llmoxy.com 注册并登录账户。
- 进入 控制台 → 令牌,点击新建。
- 复制生成的 Key,通常以
sk-开头。请妥善保管,泄露后立即在同一页面禁用并重新创建。
Base URL
所有 OpenAI 兼容客户端都使用同一个地址:
https://llmoxy.com/v1
其他请求格式(Anthropic、Gemini)使用同源的子路径,详见 兼容格式。
第一条请求
curl https://llmoxy.com/v1/chat/completions \
-H "Authorization: Bearer <LLMOXY_API_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o-mini",
"messages": [
{ "role": "user", "content": "Say hello in one short sentence." }
]
}'
把 <LLMOXY_API_KEY> 替换成你刚才创建的 Key。模型名可以通过 GET /v1/models 查看,或在控制台的模型列表中浏览。
OpenAI SDK
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.LLMOXY_API_KEY,
baseURL: "https://llmoxy.com/v1",
});
const response = await client.chat.completions.create({
model: "gpt-4o-mini",
messages: [{ role: "user", content: "Write a haiku about routers." }],
});
console.log(response.choices[0]?.message?.content);
from openai import OpenAI
client = OpenAI(
api_key="<LLMOXY_API_KEY>",
base_url="https://llmoxy.com/v1",
)
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Write a haiku about routers."}],
)
print(response.choices[0].message.content)
流式输出
在 Chat 或 Responses 请求中设置 stream: true,LLMoxy 会返回 OpenAI 兼容的 SSE 流。
curl https://llmoxy.com/v1/chat/completions \
-H "Authorization: Bearer <LLMOXY_API_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4o-mini",
"stream": true,
"messages": [
{ "role": "user", "content": "Count from one to five." }
]
}'
下一步
- 使用
GET /v1/models查看当前 Key 可用的所有模型。 - 阅读 认证 了解不同厂商风格请求头的支持。
- 阅读 Chat Completions 或 Responses API,选择与你的应用匹配的请求格式。
