Skip to content

开始使用

调用模型API服务(OpenAI协议)

​ SCNet平台提供的模型API接口兼容 OpenAI 的接口规范,您仅需要将 base_url 、api_key 、model替换成相关需要的配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。

​ base_url:https://api.scnet.cn/api/llm/v1

​ api_key:需在 模型API-API Keys 进行创建,操作步骤请参考 API Key 管理

​ model:在模型列表中查看平台提供的模型名称。

使用方式一:使用 OpenAI SDK

使用方式二:直接 HTTP 调用

如果您不使用 OpenAI SDK,而是直接通过 HTTP 请求调用接口:

路径中包含 /v1,该路径用于接口版本标识,与模型版本无关。

完整请求示例:

POST https://api.scnet.cn/api/llm/v1/chat/completions

​ 本文帮助您了解并按照步骤完成 模型API 的调用,便于您了解如何通过代码使用模型能力,进而集成到您的工作或者应用中。

  • 如果您想直接体验模型能力,访问 对话
  • 如果您有模型调用经验,可以直接查看 API 参考对话补全(Chat) API。

1. 获取并配置 API Key

  1. 打开并登录 API Key 页面。

  2. 单击创建 API Key 按钮。

  3. 在弹出框的名称文本框中确认/编辑 API Key 名称,单击创建。

说明

  • API Key是请求的重要凭证,具体使用方法查看接口文档。
  • API Key用于计费统计,为了防止费用损失,请勿随意与他人共享。

2. 获取 Model信息

您可查看模型列表获得平台模型信息,或者通过 模型查询接口 快速获取模型信息。

说明

  • 通过模型查询接口获取模型信息时,不消耗Tokens,不会产生费用。

3. 调用API

您可以根据实际业务或者本地环境情况,选择调用模型推理服务的语言。下方样例脚本可访问 SCNet API,获得非流式输出,您可以将 stream 设置为 true 来使用流式输出。

cURL请求示例

shell
curl 'https://api.scnet.cn/api/llm/v1/chat/completions'  \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <API Key>" \
  -d '{
        "model": "DeepSeek-R1-Distill-Qwen-7B",
        "messages": [
          {"role": "system", "content": "You are a helpful assistant."},
          {"role": "user", "content": "Hello!"}
        ],
        "stream": false
      }'

Python请求示例

python
# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI

client = OpenAI(api_key="<API Key>", base_url="https://api.scnet.cn/api/llm/v1")

response = client.chat.completions.create(
    model="DeepSeek-R1-Distill-Qwen-7B",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Hello"},
    ],
    stream=False
)

print(response.choices[0].message.content)

Go请求示例

go
package main

import (
    "fmt"
    "io/ioutil"
    "net/http"
    "strings"
)

func main() {

    url := "https://api.scnet.cn/api/llm/v1/chat/completions"
    method := "POST"

    payload := strings.NewReader(`{
  "messages": [
    {
      "content": "You are a helpful assistant",
      "role": "system"
    },
    {
      "content": "Hi",
      "role": "user"
    }
  ],
  "model": "DeepSeek-R1-Distill-Qwen-7B",
  "stream": false
}`)
    client := &http.Client{}
    req, err := http.NewRequest(method, url, payload)

    if err != nil {
        fmt.Println(err)
        return
    }
    req.Header.Add("Content-Type", "application/json")
    req.Header.Add("Authorization", "Bearer <API Key>")

    res, err := client.Do(req)
    if err != nil {
        fmt.Println(err)
        return
    }
    defer res.Body.Close()

    body, err := ioutil.ReadAll(res.Body)
    if err != nil {
        fmt.Println(err)
        return
    }
    fmt.Println(string(body))
}

Nodejs请求示例

javascript
// Please install OpenAI SDK first: `npm install openai`

import OpenAI from "openai";

const openai = new OpenAI({
        baseURL: 'https://api.scnet.cn/api/llm/v1',
        apiKey: '<API Key>'
});

async function main() {
  const completion = await openai.chat.completions.create({
    messages: [{ role: "system", content: "You are a helpful assistant." }],
    model: "DeepSeek-R1-Distill-Qwen-7B",
  });

  console.log(completion.choices[0].message.content);
}

main();

调用模型API服务(Anthropic协议)

SCNet 平台提供的模型接口兼容 Anthropic 的标准。您只需按照以下配置进行替换,即可无缝将您的应用切换到相应的大模型。

1. 获取并配置 API Key

  • Base URL: https://api.scnet.cn/api/llm/anthropic
  • API Key: 需在 模型API-API Keys 进行创建,操作步骤请参考 API Key 管理
  • 授权方式: Authorization: Bearer <API_KEY>

2. 获取 Model信息

您可查看模型列表获得平台模型信息。

3. 调用API

方式一:使用 Anthropic SDK (Python)

1. 安装 SDK
bash
pip install anthropic
2. 配置环境变量
bash
export ANTHROPIC_BASE_URL=https://api.scnet.cn/api/llm/anthropic
export ANTHROPIC_API_KEY=<API KEY>
3. 代码实现
python
import anthropic

client = anthropic.Anthropic()

message = client.messages.create(
    model="MiniMax-M2.5",
    max_tokens=1000,
    system="You are a helpful assistant.",
    messages=[
        {
            "role": "user",
            "content": [
                {
                    "type": "text",
                    "text": "Hi, how are you?"
                }
            ]
        }
    ]
)

for block in message.content:
    if block.type == "thinking":
        print(f"Thinking:\n{block.thinking}\n")
    elif block.type == "text":
        print(f"Text:\n{block.text}\n")

方式二:直接使用 HTTP 调用 (cURL)

如果您不使用 SDK,可以直接通过标准的 HTTP POST 请求进行调用。

bash
curl https://api.scnet.cn/api/llm/anthropic/v1/messages \
  -H "Content-Type: application/json" \
  -H "anthropic-version: 2023-06-01" \
  -H "Authorization: Bearer <API KEY>" \
  -d '{
      "messages":  [
        {"role": "user", "content": "你好"}
      ],
      "model": "MiniMax-M2.5",
      "max_tokens":196000,
      "stream": false
    }'

方式三:使用 Node.js SDK

1. 安装 SDK
bash
npm install @anthropic-ai/sdk
2. 代码实现
javascript
import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic({
  apiKey: '<API KEY>',
  baseURL: 'https://api.scnet.cn/api/llm/anthropic',
  // 显式指定 Bearer 授权头
  defaultHeaders: {
    'Authorization': 'Bearer <API KEY>'
  }
});

async function main() {
  const message = await anthropic.messages.create({
    max_tokens: 1024,
    messages: [{ role: 'user', content: 'Hello, Claude' }],
    model: 'MiniMax-M2.5',
  });

  console.log(message.content[0].text);
}

main();