跳转到内容

使用模型

飞码扣提供多个中国顶级 AI 模型,适用于不同的编程任务。本指南帮助您选择和使用最适合您需求的模型。

飞码扣当前支持以下模型(中国区):

模型提供商上下文窗口思维链倍率最适用于
Qwen3 Flash阿里云100万0.1x快速响应、日常任务(默认)
Qwen3 Max阿里云256K✅ 32K1.0x复杂推理、大型代码库
Qwen3 Coder Plus阿里云100万2.0x代码生成、大型项目
Qwen3.5 Plus阿里云100万✅ 80K0.5x高级推理、性价比
DeepSeek V3.2DeepSeek128K1.0x代码生成、调试
GLM-5智谱AI200K2.0x中文文档、高级推理
GLM-4.7智谱AI200K1.0x长文本、高质量输出
MiniMax M2.5MiniMax200K✅ 32K1.0x中文内容、复杂推理
Kimi K2.5Moonshot256K✅ 16K1.0x文档分析、长上下文

特点

  • ✅ 默认聊天模型,免费使用(公测期间)
  • ✅ 100万 token 上下文窗口
  • ✅ 极低计费倍率(0.1x)
  • ✅ 超快响应速度
  • ❌ 不支持思维链

最适用于

  • 快速代码问答
  • 简单代码生成
  • 日常编程辅助
  • 代码解释和说明

使用建议: 作为默认模型,适合大多数日常编程任务。响应速度快,成本低。


特点

  • ✅ 256K token 上下文窗口
  • ✅ 32K 思维链推理
  • ✅ 支持工具调用和并行工具调用
  • ✅ 结构化输出
  • 计费倍率:1.0x
  • 需要 Pro 会员

最适用于

  • 复杂代码分析
  • 系统架构设计
  • 多文件重构
  • 深度代码理解

使用建议: 当需要处理复杂问题或大型代码库时使用。思维链功能可提高复杂问题的解决质量。


特点

  • ✅ 100万 token 上下文窗口
  • ✅ 代码生成专精
  • ✅ 支持工具调用
  • ❌ 不支持思维链
  • 计费倍率:2.0x
  • 需要 Pro 会员

最适用于

  • 大型项目代码生成
  • 跨文件代码分析
  • 复杂代码重构
  • 整个代码库理解

使用建议: 当需要生成大量代码或理解整个项目时使用。100万上下文窗口可处理整个代码库。


特点

  • ✅ 100万 token 上下文窗口
  • ✅ 80K 思维链深度推理
  • ✅ 最新 Qwen 架构
  • ✅ 结构化输出
  • ✅ 性价比高(0.5x 倍率)
  • 需要 Pro 会员

最适用于

  • 深度代码分析
  • 复杂算法设计
  • 技术文档生成
  • 高质量推理任务

使用建议: 性价比最高的高级模型。80K 思维链提供深度推理能力,同时倍率仅为 0.5x。


特点

  • ✅ 深度思考,稀疏注意力
  • ✅ 出色的代码理解能力
  • ✅ 强大的调试能力
  • ✅ 支持工具调用和思维链
  • 128K token 上下文窗口
  • 计费倍率:1.0x
  • 需要 Pro 会员

最适用于

  • 代码生成和补全
  • Bug 调试和修复
  • 代码逻辑解释
  • 技术问题推理

使用建议: DeepSeek 专注于代码任务,特别适合调试和代码理解。稀疏注意力机制使其在长代码文件中表现良好。


特点

  • ✅ 200K token 上下文窗口
  • ✅ 思维链推理
  • ✅ 出色的中文理解
  • ✅ 支持工具调用
  • ✅ 结构化输出
  • 计费倍率:2.0x
  • 需要 Pro 会员

最适用于

  • 中文代码注释生成
  • 中文技术文档编写
  • 复杂逻辑推理
  • 中文内容创作

使用建议: 中文优化最好的模型之一。适合需要高质量中文输出的场景。


特点

  • ✅ 200K token 上下文窗口
  • ✅ 最高 128K 输出 tokens
  • ✅ 高级推理能力
  • ✅ 结构化输出
  • ✅ 性价比高(1.0x 倍率)
  • 需要 Pro 会员

最适用于

  • 长文档生成
  • 详细代码解释
  • 技术方案设计
  • 高质量输出

使用建议: 当需要长文本输出时使用。128K 输出限制使其适合生成详细文档和解释。


特点

  • ✅ 200K token 上下文窗口
  • ✅ 32K 思维链推理
  • ✅ 强大的中文支持
  • ✅ 支持工具调用
  • 计费倍率:1.0x
  • 需要 Pro 会员

最适用于

  • 中文内容生成
  • 复杂问题推理
  • 代码审查
  • 中文技术写作

使用建议: 中文内容处理的优秀选择。思维链功能增强复杂问题的解决能力。


特点

  • ✅ 256K token 上下文窗口
  • ✅ 16K 思维链推理
  • ✅ 出色的文档分析能力
  • ✅ 结构化输出
  • 计费倍率:1.0x
  • 需要 Pro 会员

最适用于

  • 大型文档分析
  • 长代码文件理解
  • 项目文档总结
  • 文档密集型任务

使用建议: Kimi 专注于文档理解和分析。256K 上下文窗口使其适合处理大型文档。


  1. 打开 Copilot Chat 面板(点击侧边栏聊天图标或按 Ctrl+Alt+I
  2. 点击面板顶部的模型选择器下拉菜单
  3. 从列表中选择一个飞码模型
  4. 所选模型将用于后续请求

您可以随时切换模型:

  • 切换仅影响新请求
  • 之前的对话上下文会保留
  • 不同模型可能对同一问题提供不同视角

推荐:Qwen3 Coder Plus、DeepSeek V3.2

原因

  • Qwen3 Coder Plus:100万上下文,代码专精
  • DeepSeek V3.2:出色的代码理解,支持思维链

推荐:Qwen3 Max、GLM-5

原因

  • Qwen3 Max:32K 思维链,深度分析
  • GLM-5:高级推理,结构化输出

推荐:GLM-5、GLM-4.7、Qwen3 Max

原因

  • GLM 系列:中文优化最佳
  • Qwen 系列:中文支持良好

推荐:Qwen3 Max、Qwen3.5 Plus

原因

  • 大上下文窗口可处理复杂设计
  • 思维链提供深度推理

推荐:Qwen3 Coder Plus、Qwen3.5 Plus、Kimi K2.5

原因

  • 100万/256K 上下文窗口
  • 可处理整个项目

推荐:Qwen3 Flash

原因

  • 极低倍率(0.1x)
  • 快速响应
  • 公测期间免费

预算水平推荐模型说明
免费(公测)Qwen3 Flash0.1x 倍率,免费使用
低成本Qwen3.5 Plus0.5x 倍率,80K 思维链
标准Qwen3 Max、DeepSeek V3.2、GLM-4.71.0x 倍率
高级Qwen3 Coder Plus、GLM-52.0x 倍率,最佳性能

好的提示包含具体的技术栈和需求描述,让模型能提供更精准的帮助。

使用代码块格式提供代码片段,让模型能准确理解代码结构。

请求模型解释其建议的原因和边界情况,获得更全面的帮助。

如果结果不满意,尝试其他模型:

  • 不同模型有不同优势
  • 某些模型可能更适合您的特定任务
  • 比较多个模型的响应

功能Qwen3 FlashQwen3 MaxQwen3.5 PlusDeepSeekGLM-5Kimi
思维链✅ 32K✅ 80K✅ 16K
工具调用
结构化输出
中文优化🔥🔥🔥
代码专精🔥🔥🔥

图例: 🔥 优秀 | ⭐ 良好

模型倍率思维链上下文性价比评分
Qwen3 Flash0.1x100万⭐⭐⭐⭐⭐
Qwen3.5 Plus0.5x✅ 80K100万⭐⭐⭐⭐⭐
GLM-4.71.0x200K⭐⭐⭐⭐
Qwen3 Max1.0x✅ 32K256K⭐⭐⭐⭐
DeepSeek V3.21.0x128K⭐⭐⭐⭐
Kimi K2.51.0x✅ 16K256K⭐⭐⭐⭐

每个模型有不同的上下文限制:

  • 检查账户仪表板中的当前限制
  • 大文件可能需要分割
  • 对于大型任务,考虑使用更大上下文窗口的模型

API 请求有速率限制:

  • 公测期间:每周赠送额度
  • 付费套餐:基于您的计划有更高限制
  • 查看状态栏了解剩余请求次数
会员等级可用模型
免费用户Qwen3 Flash(公测期间)
Pro 会员所有模型

加权请求次数 = 模型倍率 × 上下文倍率
上下文大小Token 范围倍率
小上下文0 - 4,0000.5x
中等上下文4,001 - 16,0001.0x
大上下文16,001 - 32,0001.5x
超大上下文32,001+2.0x

示例 1:Qwen3 Flash 简单问答

  • 模型倍率:0.1x
  • 上下文:2,000 tokens(小上下文,0.5x)
  • 加权请求:0.1 × 0.5 = 0.05 次

示例 2:Qwen3 Max 大型代码库

  • 模型倍率:1.0x
  • 上下文:50,000 tokens(超大上下文,2.0x)
  • 加权请求:1.0 × 2.0 = 2.0 次

示例 3:Qwen3.5 Plus 深度推理

  • 模型倍率:0.5x
  • 上下文:20,000 tokens(大上下文,1.5x)
  • 加权请求:0.5 × 1.5 = 0.75 次

详细计费信息请参阅计费指南