使用模型
飞码扣提供多个中国顶级 AI 模型,适用于不同的编程任务。本指南帮助您选择和使用最适合您需求的模型。
可用模型概览
Section titled “可用模型概览”飞码扣当前支持以下模型(中国区):
| 模型 | 提供商 | 上下文窗口 | 思维链 | 倍率 | 最适用于 |
|---|---|---|---|---|---|
| Qwen3 Flash | 阿里云 | 100万 | ❌ | 0.1x | 快速响应、日常任务(默认) |
| Qwen3 Max | 阿里云 | 256K | ✅ 32K | 1.0x | 复杂推理、大型代码库 |
| Qwen3 Coder Plus | 阿里云 | 100万 | ❌ | 2.0x | 代码生成、大型项目 |
| Qwen3.5 Plus | 阿里云 | 100万 | ✅ 80K | 0.5x | 高级推理、性价比 |
| DeepSeek V3.2 | DeepSeek | 128K | ✅ | 1.0x | 代码生成、调试 |
| GLM-5 | 智谱AI | 200K | ✅ | 2.0x | 中文文档、高级推理 |
| GLM-4.7 | 智谱AI | 200K | ✅ | 1.0x | 长文本、高质量输出 |
| MiniMax M2.5 | MiniMax | 200K | ✅ 32K | 1.0x | 中文内容、复杂推理 |
| Kimi K2.5 | Moonshot | 256K | ✅ 16K | 1.0x | 文档分析、长上下文 |
模型详细说明
Section titled “模型详细说明”通义千问系列(阿里云)
Section titled “通义千问系列(阿里云)”Qwen3 Flash(默认模型)
Section titled “Qwen3 Flash(默认模型)”特点:
- ✅ 默认聊天模型,免费使用(公测期间)
- ✅ 100万 token 上下文窗口
- ✅ 极低计费倍率(0.1x)
- ✅ 超快响应速度
- ❌ 不支持思维链
最适用于:
- 快速代码问答
- 简单代码生成
- 日常编程辅助
- 代码解释和说明
使用建议: 作为默认模型,适合大多数日常编程任务。响应速度快,成本低。
Qwen3 Max
Section titled “Qwen3 Max”特点:
- ✅ 256K token 上下文窗口
- ✅ 32K 思维链推理
- ✅ 支持工具调用和并行工具调用
- ✅ 结构化输出
- 计费倍率:1.0x
- 需要 Pro 会员
最适用于:
- 复杂代码分析
- 系统架构设计
- 多文件重构
- 深度代码理解
使用建议: 当需要处理复杂问题或大型代码库时使用。思维链功能可提高复杂问题的解决质量。
Qwen3 Coder Plus
Section titled “Qwen3 Coder Plus”特点:
- ✅ 100万 token 上下文窗口
- ✅ 代码生成专精
- ✅ 支持工具调用
- ❌ 不支持思维链
- 计费倍率:2.0x
- 需要 Pro 会员
最适用于:
- 大型项目代码生成
- 跨文件代码分析
- 复杂代码重构
- 整个代码库理解
使用建议: 当需要生成大量代码或理解整个项目时使用。100万上下文窗口可处理整个代码库。
Qwen3.5 Plus
Section titled “Qwen3.5 Plus”特点:
- ✅ 100万 token 上下文窗口
- ✅ 80K 思维链深度推理
- ✅ 最新 Qwen 架构
- ✅ 结构化输出
- ✅ 性价比高(0.5x 倍率)
- 需要 Pro 会员
最适用于:
- 深度代码分析
- 复杂算法设计
- 技术文档生成
- 高质量推理任务
使用建议: 性价比最高的高级模型。80K 思维链提供深度推理能力,同时倍率仅为 0.5x。
DeepSeek 系列
Section titled “DeepSeek 系列”DeepSeek V3.2
Section titled “DeepSeek V3.2”特点:
- ✅ 深度思考,稀疏注意力
- ✅ 出色的代码理解能力
- ✅ 强大的调试能力
- ✅ 支持工具调用和思维链
- 128K token 上下文窗口
- 计费倍率:1.0x
- 需要 Pro 会员
最适用于:
- 代码生成和补全
- Bug 调试和修复
- 代码逻辑解释
- 技术问题推理
使用建议: DeepSeek 专注于代码任务,特别适合调试和代码理解。稀疏注意力机制使其在长代码文件中表现良好。
智谱 AI(GLM)
Section titled “智谱 AI(GLM)”特点:
- ✅ 200K token 上下文窗口
- ✅ 思维链推理
- ✅ 出色的中文理解
- ✅ 支持工具调用
- ✅ 结构化输出
- 计费倍率:2.0x
- 需要 Pro 会员
最适用于:
- 中文代码注释生成
- 中文技术文档编写
- 复杂逻辑推理
- 中文内容创作
使用建议: 中文优化最好的模型之一。适合需要高质量中文输出的场景。
GLM-4.7
Section titled “GLM-4.7”特点:
- ✅ 200K token 上下文窗口
- ✅ 最高 128K 输出 tokens
- ✅ 高级推理能力
- ✅ 结构化输出
- ✅ 性价比高(1.0x 倍率)
- 需要 Pro 会员
最适用于:
- 长文档生成
- 详细代码解释
- 技术方案设计
- 高质量输出
使用建议: 当需要长文本输出时使用。128K 输出限制使其适合生成详细文档和解释。
MiniMax
Section titled “MiniMax”MiniMax M2.5
Section titled “MiniMax M2.5”特点:
- ✅ 200K token 上下文窗口
- ✅ 32K 思维链推理
- ✅ 强大的中文支持
- ✅ 支持工具调用
- 计费倍率:1.0x
- 需要 Pro 会员
最适用于:
- 中文内容生成
- 复杂问题推理
- 代码审查
- 中文技术写作
使用建议: 中文内容处理的优秀选择。思维链功能增强复杂问题的解决能力。
Moonshot(Kimi)
Section titled “Moonshot(Kimi)”Kimi K2.5
Section titled “Kimi K2.5”特点:
- ✅ 256K token 上下文窗口
- ✅ 16K 思维链推理
- ✅ 出色的文档分析能力
- ✅ 结构化输出
- 计费倍率:1.0x
- 需要 Pro 会员
最适用于:
- 大型文档分析
- 长代码文件理解
- 项目文档总结
- 文档密集型任务
使用建议: Kimi 专注于文档理解和分析。256K 上下文窗口使其适合处理大型文档。
通过 Copilot Chat 选择
Section titled “通过 Copilot Chat 选择”- 打开 Copilot Chat 面板(点击侧边栏聊天图标或按
Ctrl+Alt+I) - 点击面板顶部的模型选择器下拉菜单
- 从列表中选择一个飞码模型
- 所选模型将用于后续请求
您可以随时切换模型:
- 切换仅影响新请求
- 之前的对话上下文会保留
- 不同模型可能对同一问题提供不同视角
模型选择指南
Section titled “模型选择指南”按任务类型选择
Section titled “按任务类型选择”推荐:Qwen3 Coder Plus、DeepSeek V3.2
原因:
- Qwen3 Coder Plus:100万上下文,代码专精
- DeepSeek V3.2:出色的代码理解,支持思维链
推荐:Qwen3 Max、GLM-5
原因:
- Qwen3 Max:32K 思维链,深度分析
- GLM-5:高级推理,结构化输出
推荐:GLM-5、GLM-4.7、Qwen3 Max
原因:
- GLM 系列:中文优化最佳
- Qwen 系列:中文支持良好
推荐:Qwen3 Max、Qwen3.5 Plus
原因:
- 大上下文窗口可处理复杂设计
- 思维链提供深度推理
大型代码库分析
Section titled “大型代码库分析”推荐:Qwen3 Coder Plus、Qwen3.5 Plus、Kimi K2.5
原因:
- 100万/256K 上下文窗口
- 可处理整个项目
推荐:Qwen3 Flash
原因:
- 极低倍率(0.1x)
- 快速响应
- 公测期间免费
| 预算水平 | 推荐模型 | 说明 |
|---|---|---|
| 免费(公测) | Qwen3 Flash | 0.1x 倍率,免费使用 |
| 低成本 | Qwen3.5 Plus | 0.5x 倍率,80K 思维链 |
| 标准 | Qwen3 Max、DeepSeek V3.2、GLM-4.7 | 1.0x 倍率 |
| 高级 | Qwen3 Coder Plus、GLM-5 | 2.0x 倍率,最佳性能 |
提供清晰上下文
Section titled “提供清晰上下文”好的提示包含具体的技术栈和需求描述,让模型能提供更精准的帮助。
使用代码块格式提供代码片段,让模型能准确理解代码结构。
请求详细解释
Section titled “请求详细解释”请求模型解释其建议的原因和边界情况,获得更全面的帮助。
测试不同模型
Section titled “测试不同模型”如果结果不满意,尝试其他模型:
- 不同模型有不同优势
- 某些模型可能更适合您的特定任务
- 比较多个模型的响应
| 功能 | Qwen3 Flash | Qwen3 Max | Qwen3.5 Plus | DeepSeek | GLM-5 | Kimi |
|---|---|---|---|---|---|---|
| 思维链 | ❌ | ✅ 32K | ✅ 80K | ✅ | ✅ | ✅ 16K |
| 工具调用 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
| 结构化输出 | ✅ | ✅ | ✅ | ❌ | ✅ | ✅ |
| 中文优化 | ⭐ | 🔥 | 🔥 | ⭐ | 🔥 | ⭐ |
| 代码专精 | ⭐ | 🔥 | 🔥 | 🔥 | ⭐ | ⭐ |
图例: 🔥 优秀 | ⭐ 良好
| 模型 | 倍率 | 思维链 | 上下文 | 性价比评分 |
|---|---|---|---|---|
| Qwen3 Flash | 0.1x | ❌ | 100万 | ⭐⭐⭐⭐⭐ |
| Qwen3.5 Plus | 0.5x | ✅ 80K | 100万 | ⭐⭐⭐⭐⭐ |
| GLM-4.7 | 1.0x | ✅ | 200K | ⭐⭐⭐⭐ |
| Qwen3 Max | 1.0x | ✅ 32K | 256K | ⭐⭐⭐⭐ |
| DeepSeek V3.2 | 1.0x | ✅ | 128K | ⭐⭐⭐⭐ |
| Kimi K2.5 | 1.0x | ✅ 16K | 256K | ⭐⭐⭐⭐ |
Token 限制
Section titled “Token 限制”每个模型有不同的上下文限制:
- 检查账户仪表板中的当前限制
- 大文件可能需要分割
- 对于大型任务,考虑使用更大上下文窗口的模型
API 请求有速率限制:
- 公测期间:每周赠送额度
- 付费套餐:基于您的计划有更高限制
- 查看状态栏了解剩余请求次数
| 会员等级 | 可用模型 |
|---|---|
| 免费用户 | Qwen3 Flash(公测期间) |
| Pro 会员 | 所有模型 |
加权请求次数 = 模型倍率 × 上下文倍率| 上下文大小 | Token 范围 | 倍率 |
|---|---|---|
| 小上下文 | 0 - 4,000 | 0.5x |
| 中等上下文 | 4,001 - 16,000 | 1.0x |
| 大上下文 | 16,001 - 32,000 | 1.5x |
| 超大上下文 | 32,001+ | 2.0x |
示例 1:Qwen3 Flash 简单问答
- 模型倍率:0.1x
- 上下文:2,000 tokens(小上下文,0.5x)
- 加权请求:0.1 × 0.5 = 0.05 次
示例 2:Qwen3 Max 大型代码库
- 模型倍率:1.0x
- 上下文:50,000 tokens(超大上下文,2.0x)
- 加权请求:1.0 × 2.0 = 2.0 次
示例 3:Qwen3.5 Plus 深度推理
- 模型倍率:0.5x
- 上下文:20,000 tokens(大上下文,1.5x)
- 加权请求:0.5 × 1.5 = 0.75 次
详细计费信息请参阅计费指南。