| gpt-5.1 | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型,它具备可配置的推理和非推理能力 |
| gpt-5.1-2025-11-13 | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | 用于编码和智能体任务的旗舰模型,它具备可配置的推理和非推理能力 |
| gpt-5.1-chat-latest | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | 指向 ChatGPT 当前使用的 GPT-5.1 快照。我们推荐GPT-5.1对于大多数 API 用法,但您可以随意使用此 GPT-5.1 聊天模型来测试我们针对聊天用例的最新改进 |
| gpt-5.1-codex | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | GPT-5.1-Codex 是 GPT-5 的一个版本,针对智能编码任务进行了优化。 |
| gpt-5 | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | GPT-5 是用于跨领域编码、推理和代理任务的旗舰模型 |
| gpt-5-codex | 0.105 / 1K Tokens | 0.07 / 1K Tokens | 支持 | GPT-5-Codex 是针对代理编码任务优化。它可在 Responses API仅限此版本,底层模型快照将定期更新。 |
| gpt-5-pro | 0.00875 / 1K Tokens | 0.84 / 1K Tokens | 支持 | 使用更多的计算来更努力地思考,并始终如一地提供更好的答案。此模型回复较慢比较长的问题不建议使用有可能会超时 |
| gpt-5-mini | 0.00175 / 1K Tokens | 0.014 / 1K Tokens | 支持 | GPT-5 mini 是 GPT-5 的一个更快、更经济的版本。它非常适合执行定义明确的任务和精准的提示 |
| gpt-5-nano | 0.00035 / 1K Tokens | 0.0028 / 1K Tokens | 支持 | GPT-5 Nano 是速度最快、成本最低的 GPT-5 版本。它非常适合摘要和分类任务 |
| gpt-5-chat-latest | 0.00875 / 1K Tokens | 0.07 / 1K Tokens | 支持 | GPT-5 Chat 指的是 ChatGPT 当前使用的 GPT-5 快照 |
| o3 | 0.014 / 1K Tokens | 0.056 / 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o3-2025-04-16 |
| o3-2025-04-16 | 0.014 / 1K Tokens | 0.056 / 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |
| o4-mini | 0.0088 / 1K Tokens | 0.0352 / 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 指向o4-mini-2025-04-16 |
| o4-mini-2025-04-16 | 0.0088 / 1K Tokens | 0.0352 / 1K Tokens | 支持 | 为数学、科学、编码、视觉推理任务和技术写作设定了新的标准。 |
| gpt-4.1 | 0.014 / 1K Tokens | 0.056 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-2025-04-14 |
| gpt-4.1-2025-04-14 | 0.014 / 1K Tokens | 0.056 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 |
| gpt-4.1-mini | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-mini-2025-04-14 |
| gpt-4.1-mini-2025-04-14 | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 |
| gpt-4.1-nano | 0.0007 / 1K Tokens | 0.0028 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 指向gpt-4.1-nano-2025-04-14 |
| gpt-4.1-nano-2025-04-14 | 0.0007 / 1K Tokens | 0.0028 / 1K Tokens | 支持 | OpenAI最新推出的模型 在编码、指令跟踪和长上下文方面都有重大改进1M输入32k输出 |
| gpt-oss-20b | 0.0008 / 1K Tokens | 0.0032 / 1K Tokens | 支持 | OpenAI最新推出的开源模型 |
| gpt-oss-120b | 0.0044 / 1K Tokens | 0.0176 / 1K Tokens | 支持 | OpenAI最新推出的开源模型 |
| gpt-3.5-turbo | 0.0035 / 1K Tokens | 0.0105 / 1K Tokens | 支持 | 默认模型,等于gpt-3.5-turbo-0125 |
| gpt-3.5-turbo-1106 | 0.007 / 1K Tokens | 0.014 / 1K Tokens | 支持 | 2023年11月6日更新的模型 |
| gpt-3.5-turbo-0125 | 0.0035 / 1K Tokens | 0.0105 / 1K Tokens | 支持 | 2024年1月25日最新模型,数据最新,价格更更低,速度更快,修复了一些1106的bug。 |
| gpt-3.5-turbo-16k | 0.021 / 1K Tokens | 0.028 / 1K Tokens | 支持 | 适合快速回答简单问题,字数更多 |
| gpt-3.5-turbo-instruct | 0.0105 / 1K Tokens | 0.014 / 1K Tokens | 支持 | Completions模型 用于文本生成,提供准确的自然语言处理模型一般人用不上 |
| o1-mini | 0.0088 / 1K Tokens | 0.0352 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
| o1-preview | 0.105 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
| o3-mini [5] | 0.0088 / 1K Tokens | 0.0352 / 1K Tokens | 支持 | 针对复杂任务的推理模型 |
| o1 [5] | 0.12 / 1K Tokens | 0.48 / 1K Tokens | 支持 | o1系列模型经过强化学习训练,可以进行复杂的推理。o1模型在回答之前会思考,在回应用户之前会产生一长串的内部思维链 |
| gpt-4o-search-preview | 0.0175/1K Tokens | 0.07/1K Tokens + 搜索费用[6] | 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o的搜索模型 |
| gpt-4o-search-preview-2025-03-11 | 0.0175/1K Tokens | 0.07/1K Tokens + 搜索费用[6] | 支持 | Openai 出的搜索模型,支持网络搜索 |
| gpt-4o-mini-search-preview | 0.00105/1K Tokens | 0.0042/1K Tokens + 搜索费用[6] | 支持 | Openai 出的搜索模型,支持网络搜索,指向最新的4o-mini的搜索模型 |
| gpt-4o-mini-search-preview-2025-03-11 | 0.00105/1K Tokens | 0.0042/1K Tokens + 搜索费用[6] | 支持 | Openai 出的搜索模型,支持网络搜索 |
| gpt-4 | 0.21 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 默认模型,等于gpt-4-0613 |
| gpt-4o | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 价格更低, 速度更快更聪明,指向最新版的4o版本 |
| gpt-4o-2024-05-13 | 0.035/1K Tokens + 图片费用[2] | 0.105/1K Tokens | 支持 | Openai 2024-05-13出的gpt-4o模型 |
| gpt-4o-2024-08-06 | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 2024-08-06出的gpt-4o模型 支持128k输入,16k输出 |
| gpt-4o-2024-11-20 | 0.0175/1K Tokens + 图片费用[2] | 0.07/1K Tokens | 支持 | Openai 2024-11-20出的gpt-4o模型, 该模型的创意写作能力得到了提升一更自然、更有吸引力、更有针对性的写作 |
| chatgpt-4o-latest | 0.035/1K Tokens + 图片费用[2] | 0.105/1K Tokens | 支持 | 动态更新的版本,持续集成OpenAI最新的研究成果[4] |
| gpt-4o-mini | 0.00105/1K Tokens + 图片费用[2] | 0.0042/1K Tokens | 支持 | Openai 最新模型, 价格更低, 输出质量在3.5之上4o之下, 并且支持读图 |
| gpt-4-0613 | 0.21 / 1K Tokens | 0.42 / 1K Tokens | 支持 | 2023年6月13日更新的模型 |
| gpt-4-turbo-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 最新模型,输入128K,输出最大4K,知识库最新2023年4月, 此模型始终指向最新的4的preview模型 |
| gpt-4-0125-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 2024年1月25日更新的模型,输入128K,输出最大4K,知识库最新2023年4月, 修复了一些1106的bug |
| gpt-4-1106-preview | 0.07 / 1K Tokens | 0.21 / 1K Tokens | 支持 | 2023年11月6日更新的模型,输入128K,输出最大4K,知识库最新2023年4月 |
| gpt-4-vision-preview | 0.07 / 1K Tokens + 图片费用[2] | 0.21 / 1K Tokens | 支持 | 多模态,支持图片识别 |
| gpt-4-turbo | 0.07 / 1K Tokens + 图片费用[2] | 0.21 / 1K Tokens | 支持 | Openai 最新模型多模态,支持图片识别,支持函数tools |
| gpt-4-turbo-2024-04-09 | 0.07 / 1K Tokens + 0.10115*图片个数[2] | 0.21 / 1K Tokens | 支持 | Openai 最新模型多模态,支持图片识别,支持函数tools |
| gpt-5.1-ca | 0.005 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-5.1-chat-latest-ca | 0.005 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-5-ca | 0.005 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-5-mini-ca | 0.001 / 1K Tokens | 0.008 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-5-nano-ca | 0.0002 / 1K Tokens | 0.0016 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-5-chat-latest-ca | 0.005 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4.1-ca | 0.008 / 1K Tokens | 0.032 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4.1-mini-ca | 0.0016 / 1K Tokens | 0.0064 / 1K Tokens | 支 持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4.1-nano-ca | 0.0004 / 1K Tokens | 0.003 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-3.5-turbo-ca | 0.001 / 1K Tokens | 0.0016 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4-ca | 0.12 / 1K Tokens | 0.24 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4-turbo-ca | 0.04 / 1K Tokens + 0.0578*图片个数[3] | 0.12 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4o-ca | 0.01 / 1K Tokens + 0.0289*图片个数[3] | 0.04 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| gpt-4o-mini-ca | 0.00075 / 1K Tokens | 0.003 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| o1-mini-ca | 0.012 / 1K Tokens | 0.048 / 1K Tokens | 支持 | 第三方优质提供商提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| o1-preview-ca | 0.06 / 1K Tokens | 0.24 / 1K Tokens | 支持 | 第三方优质提供商 提供的服务,优点价格便宜,但是稳定性没有非-ca的好, 模型返回和能力都是一样的 |
| deepseek-v3-2-exp | 0.0012 / 1K Tokens | 0.0018 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-v3.1-250821 | 0.0024 / 1K Tokens | 0.0072 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-v3.1-think-250821 | 0.0024 / 1K Tokens | 0.0072 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-reasoner | 0.0036 / 1K Tokens | 0.0144 / 1K Tokens | 支持 | deepseek的思考R1模型, 此模型由第三方供应商自己部署提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-r1 | 0.0024 / 1K Tokens | 0.0096 / 1K Tokens | 支持 | deepseek的思考R1模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-r1-250528 | 0.0024 / 1K Tokens | 0.0096 / 1K Tokens | 支持 | deepseek的思考R1模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-v3 | 0.0012 / 1K Tokens | 0.0048 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| deepseek-chat | 0.0012 / 1K Tokens | 0.0048 / 1K Tokens | 支持 | deepseek的聊天模型, 此模型由第三方(火山引擎)供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-haiku-4-5-20251001 | 0.005 / 1K Tokens | 0.025 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-haiku-4-5-20251001-thinking | 0.005 / 1K Tokens | 0.025 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-sonnet-4-5-20250929 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-sonnet-4-5-20250929-thinking | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-opus-4-1-20250805 | 0.075 / 1K Tokens | 0.375 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-opus-4-1-20250805-thinking | 0.075 / 1K Tokens | 0.375 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-opus-4-20250514 | 0.075 / 1K Tokens | 0.375 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-opus-4-20250514-thinking | 0.075 / 1K Tokens | 0.375 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-sonnet-4-20250514 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-sonnet-4-20250514-thinking | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-3-7-sonnet-20250219 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-3-5-sonnet-20240620 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-3-5-sonnet-20241022 | 0.015 / 1K Tokens | 0.075 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| claude-3-5-haiku-20241022 | 0.005 / 1K Tokens | 0.025 / 1K Tokens | 支持 | claude的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.0-flash-exp | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.0-pro-exp-02-05 | 0.01 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.0-flash | 0.005 / 1K Tokens | 0.02 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-pro-exp-03-25 | 0.007 / 1K Tokens | 0.04 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-pro-preview-05-06 | 0.007 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 是gemini 最新的旗舰模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-pro-preview-06-05 | 0.007 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 是gemini 最新的旗舰模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash-preview-04-17 | 0.0006 / 1K Tokens | 0.014 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash-preview-05-20 | 0.0006 / 1K Tokens | 0.014 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-pro | 0.007 / 1K Tokens | 0.04 / 1K Tokens | 支持 | 是gemini 最新的旗舰模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash | 0.0006 / 1K Tokens | 0.014 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash-nothinking | 0.0006 / 1K Tokens | 0.005 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash-lite-preview-06-17 | 0.0004 / 1K Tokens | 0.0016 / 1K Tokens | 支持 | Google Gemini 的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| gemini-2.5-flash-image-preview | 0.0015 / 1K Tokens | 0.15 / 1K Tokens | 支持 | Google Gemini的生图模型也是大家口中所说的nano banana 一张图的价格大概在2毛钱左右 |
| grok-4 | 0.012 / 1K Tokens | 0.06 / 1K Tokens | 支持 | grok基础模此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| grok-4-fast | 0.0008 / 1K Tokens | 0.002 / 1K Tokens | 支持 | grok基础模此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| qwen3-235b-a22b | 0.0014 / 1K Tokens | 0.0056 / 1K Tokens | 支持 | qwen最新的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| qwen3-235b-a22b-instruct-2507 | 0.0014 / 1K Tokens | 0.0056 / 1K Tokens | 支持 | qwen最新的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| qwen3-coder-plus | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | qwen最新的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| qwen3-coder-480b-a35b-instruct | 0.0042 / 1K Tokens | 0.0168 / 1K Tokens | 支持 | qwen最新的开源模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| kimi-k2-0711-preview | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | kimi最新的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| kimi-k2-0905-preview | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | kimi最新的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| kimi-k2-thinking | 0.0028 / 1K Tokens | 0.0112 / 1K Tokens | 支持 | kimi最新的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |
| kimi-k2-thinking-turbo | 0.0056 / 1K Tokens | 0.0406 / 1K Tokens | 支持 | kimi最新的模型, 此模型由第三方供应商提供,有小概率可能会出现响应速度较慢或报错的情况。 |