ChatAnywhere API 帮助文档
  • 发出请求
  • 模型接口
    • 模型(Models)
    • 聊天接口(Chat)
      • 聊天接口POST
    • 自动补全接口(Completions)
    • 图像接口(Images)
    • 向量生成接口(Embeddings)
    • 音频接口(Audio)
    • 查询接口
  • 帮助中心
Powered by Apifox

    聊天接口

    POST/v1/chat/completions

    给定一个提示,该模型将返回一个或多个预测的完成,并且还可以返回每个位置的替代标记的概率。

    为提供的提示和参数创建完成

    请求参数

    Header 参数
    Authorization
    string 
    必需
    示例值:
    Bearer {{YOUR_API_KEY}}
    Content-Type
    string 
    必需
    示例值:
    application/json
    Body 参数application/json
    messages
    array [object {2}] 
    必需

    以聊天格式生成聊天完成的消息。

    role
    string 
    可选
    content
    string 
    可选
    model
    string 
    必需

    要使用的模型的 ID。有关哪些模型适用于聊天 API 的详细信息,请参阅模型端点兼容性表。

    frequency_penalty
    number 
    可选

    -2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。

    logit_bias
    object 
    可选

    修改指定标记出现在生成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。

    logprobs
    boolean 
    可选

    是否返回输出标记的对数概率。如果为 true,则返回message的content中返回的每个输出token的对数概率。

    top_logprobs
    integer 
    可选

    0 到 20 之间的整数,指定在每个标记位置返回的最可能标记的数量,每个标记均具有相关的对数概率。如果使用此参数,则logprobs必须设置为true。

    max_tokens
    integer 
    可选

    聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。

    n
    integer 
    可选

    为每个输入消息生成多少个聊天完成选项。

    presence_penalty
    number 
    可选

    -2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。

    response_format
    object 
    可选

    指定模型必须输出的格式的对象。与GPT-4 Turbo和所有比gpt-3.5-turbo-1106更新的 GPT-3.5 Turbo 模型兼容。 设置为{ "type": "json_object" }启用 JSON 模式,保证模型生成的消息是有效的 JSON。 重要提示:使用 JSON 模式时,您还必须通过系统或用户消息指示模型自行生成 JSON。如果不这样做,模型可能会生成无休止的空白流,直到生成达到令牌限制,从而导致长时间运行且看似“卡住”的请求。另请注意,如果finish_reason="length",消息内容可能会被部分截断,这表示生成超出max_tokens或对话超出了最大上下文长度。

    type
    string 
    可选

    必须是text或json_object。

    stop
    string 
    可选

    API 将停止生成更多令牌的最多 4 个序列。

    stream
    boolean 
    可选

    如果设置,将发送部分消息增量,就像在 ChatGPT 中一样。当令牌可用时,令牌将作为纯数据服务器发送事件data: [DONE]发送,流由消息终止。有关示例代码,请参阅 OpenAI Cookbook 。

    stream_options
    object 
    流式响应的选项。
    可选
    include_usage
    boolean 
    可选

    如果设置,则在消息data: [DONE]之前会流式传输一个额外的usage块。此块上的字段显示整个请求的令牌使用情况统计信息,并且该choices字段将始终为空数组。

    temperature
    number 
    可选

    使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p但不是两者。

    top_p
    number 
    可选

    一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature但不是两者。

    tools
    array [object {2}] 
    可选

    函数调用使用,参考OpenAI官方文档

    type
    string 
    必需
    function
    object 
    可选
    tool_choice
    可选

    函数调用使用,参考OpenAI官方文档

    One of
    user
    string 
    可选

    代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。

    示例
    {
      "model": "gpt-3.5-turbo",
      "messages": [
        {
          "role": "system",
          "content": "You are a helpful assistant."
        },
        {
          "role": "user",
          "content": "Hello!"
        }
      ]
    }

    示例代码

    返回响应

    OK(200)
    HTTP 状态码: 200
    内容格式: JSONapplication/json
    数据结构
    id
    string 
    必需
    object
    string 
    必需
    created
    integer 
    必需
    choices
    array [object {3}] 
    必需
    index
    integer 
    可选
    message
    object 
    可选
    finish_reason
    string 
    可选
    usage
    object 
    必需
    prompt_tokens
    integer 
    必需
    completion_tokens
    integer 
    必需
    total_tokens
    integer 
    必需
    示例OK
    {
      "id": "chatcmpl-123",
      "object": "chat.completion",
      "created": 1677652288,
      "choices": [
        {
          "index": 0,
          "message": {
            "role": "assistant",
            "content": "\n\nHello there, how may I assist you today?"
          },
          "finish_reason": "stop"
        }
      ],
      "usage": {
        "prompt_tokens": 9,
        "completion_tokens": 12,
        "total_tokens": 21
      }
    }
    修改于 1 个月前