快速开始
NexusAI 提供 OpenAI 兼容的 API 接口,只需将 base_url 指向我们的服务即可无缝迁移,3 行代码完成接入。
💡 提示:NexusAI 完全兼容 OpenAI SDK,已有 OpenAI 项目只需修改
base_url 和 api_key 两个参数即可切换。
认证与 API Key
1
注册账号
前往 注册页面 创建免费账号,注册即送 ¥14 体验额度。
2
创建 API Key
登录后进入 控制台,在 "API Keys" 页面创建密钥。
3
发起请求
将 API Key 放入请求头 Authorization: Bearer YOUR_KEY,即可调用。
SDK 安装
Python
pip install openai
Node.js
npm install openai
Go
go get github.com/openai/openai-go
Chat Completions
接口地址
POST https://api.nexusai.cn/v1/chat/completions
代码示例
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.nexusai.cn/v1"
)
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V4-Flash",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "写一首关于春天的诗"}
],
max_tokens=1024,
temperature=0.7
)
print(response.choices[0].message.content)
print("Token 用量:", response.usage.total_tokens)
流式输出
对于需要实时显示生成内容的场景,使用 stream=True 参数启用流式输出。
response = client.chat.completions.create(
model="deepseek-ai/DeepSeek-V4-Flash",
messages=[{"role": "user", "content": "讲个故事"}],
stream=True
)
for chunk in response:
delta = chunk.choices[0].delta
if delta.content:
print(delta.content, end="", flush=True)
Embeddings
response = client.embeddings.create(
model="BAAI/bge-m3",
input=["NexusAI 是一个大模型服务平台", "快速接入 100+ 主流模型"]
)
for emb in response.data:
print(f"向量维度: {len(emb.embedding)}")
计费说明
NexusAI 按 Token 用量精确计费,输入和输出分开计算。费用 = 输入 Token 数 × 输入单价 + 输出 Token 数 × 输出单价。
详细模型价格请查看 定价页面。
速率限制
免费用户:60 RPM(每分钟请求数);认证用户:500 RPM;企业用户:不限。如需更高速率,请 联系我们。