快速开始

NexusAI 提供 OpenAI 兼容的 API 接口,只需将 base_url 指向我们的服务即可无缝迁移,3 行代码完成接入。

💡 提示:NexusAI 完全兼容 OpenAI SDK,已有 OpenAI 项目只需修改 base_urlapi_key 两个参数即可切换。

认证与 API Key

1

注册账号

前往 注册页面 创建免费账号,注册即送 ¥14 体验额度。

2

创建 API Key

登录后进入 控制台,在 "API Keys" 页面创建密钥。

3

发起请求

将 API Key 放入请求头 Authorization: Bearer YOUR_KEY,即可调用。

SDK 安装

🐍

Python

pip install openai

📦

Node.js

npm install openai

🦫

Go

go get github.com/openai/openai-go

Chat Completions

接口地址

POST https://api.nexusai.cn/v1/chat/completions

代码示例

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.nexusai.cn/v1"
)

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V4-Flash",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手"},
        {"role": "user", "content": "写一首关于春天的诗"}
    ],
    max_tokens=1024,
    temperature=0.7
)

print(response.choices[0].message.content)
print("Token 用量:", response.usage.total_tokens)

流式输出

对于需要实时显示生成内容的场景,使用 stream=True 参数启用流式输出。

response = client.chat.completions.create(
    model="deepseek-ai/DeepSeek-V4-Flash",
    messages=[{"role": "user", "content": "讲个故事"}],
    stream=True
)

for chunk in response:
    delta = chunk.choices[0].delta
    if delta.content:
        print(delta.content, end="", flush=True)

Embeddings

response = client.embeddings.create(
    model="BAAI/bge-m3",
    input=["NexusAI 是一个大模型服务平台", "快速接入 100+ 主流模型"]
)

for emb in response.data:
    print(f"向量维度: {len(emb.embedding)}")

计费说明

NexusAI 按 Token 用量精确计费,输入和输出分开计算。费用 = 输入 Token 数 × 输入单价 + 输出 Token 数 × 输出单价。

详细模型价格请查看 定价页面

速率限制

免费用户:60 RPM(每分钟请求数);认证用户:500 RPM;企业用户:不限。如需更高速率,请 联系我们