通用设置
基本应用设置和行为。
Tool Model
Tool Model 是专门用于后台 AI 操作的模型,与主聊天模型分开。这让你可以为辅助任务使用快速、经济的模型,同时为对话使用更强大(也更贵)的模型。
Tool Model 的作用
Tool Model 用于:
- 对话标题生成:自动为新聊天对话生成标题
- 工具选择:分析给定任务应使用哪些工具
- 参数提取:将用户请求解析为工具参数
- 记忆操作:处理记忆的存储和检索(除非在记忆设置中覆盖)
- 后台任务:处理辅助 AI 操作
为什么使用单独的 Tool Model
| 优势 | 描述 |
|---|---|
| 节省成本 | 工具操作频繁但简单——使用便宜的模型可显著降低成本 |
| 速度 | 较小的模型响应更快,使工具操作感觉即时 |
| 效率 | 主模型专注于对话,而 Tool Model 处理机制性工作 |
为什么速度和质量都很重要
好的 Tool Model 必须在速度和生成质量之间取得平衡——两者缺一不可。
为什么速度很重要
工具操作在对话过程中会频繁发生:
- 每个新对话都需要生成标题
- 每条消息都可能触发工具选择分析
- 每次工具调用都需要参数提取
如果 Tool Model 很慢(每次操作 3 秒以上),这些微小延迟会累积起来,让整个体验感觉迟钝。用户期望标题生成和工具操作感觉即时——理想情况下在 1 秒内完成。
为什么质量也很重要
尽管需要速度,Tool Model 的任务仍然需要真正的智能:
| 任务 | 质量不足时会出现什么问题 |
|---|---|
| 对话标题 | 生成泛泛的标题如"关于代码的聊天",而不是有意义的摘要如"调试 React useEffect 无限循环" |
| 工具选择 | 调用错误的工具,或者完全遗漏应该使用工具的情况 |
| 参数提取 | 将"搜索上周修改的文件"错误理解为搜索字面文本"上周" |
| 记忆操作 | 存储无关信息或无法检索相关上下文 |
一个快但不准确的模型会在整个工作流程中造成令人沮丧的错误。一个准确但慢的模型会让应用感觉反应迟钝。
最佳平衡点
推荐的模型(如 gpt-4o-mini、claude-haiku-4-5、gemini-2.0-flash)达到了最佳平衡点:它们足够小,可以在 1 秒内响应,但又足够强大,可以准确处理工具操作。
选择 Tool Model
推荐模型:
| 服务商 | 推荐 | 原因 |
|---|---|---|
| OpenAI | gpt-4o-mini | 快速,出色的工具支持 |
| Anthropic | claude-haiku-4-5 | 非常快,质量好 |
gemini-2.0-flash、gemini-1.5-flash | 极快 | |
| DeepSeek | deepseek-chat | 快速且经济 |
避免推理模型
切勿将推理/思考模型用作 Tool Model:
- OpenAI
o1、o3系列 - 启用扩展思考的 Anthropic 模型
- 任何专为深度推理设计的模型
这些模型针对复杂问题求解进行了优化,响应时间显著更长(10-60+秒),完全不适合需要即时响应的工具操作。
自动检测
如果你不配置 Tool Model,Alma 会根据已启用的服务商自动选择一个:
- 按优先顺序检查已启用的服务商(OpenAI → Anthropic → Google → 其他)
- 选择可用的最快推荐模型
- 如果找不到合适的工具模型,则回退到你的聊天模型
测试你的 Tool Model
使用模型选择器旁边的 测试 按钮验证性能:
| 结果 | 响应时间 | 含义 |
|---|---|---|
| ✅ 良好 | < 2.5 秒 | 适合工具操作 |
| ⚠️ 较慢 | 2.5 秒 - 5 秒 | 可用但可能感觉迟缓 |
| ❌ 不可用 | > 5 秒 | 对于响应式工具使用来说太慢 |
语言
选择界面语言:
- English(英文)
- 中文(zh)
- 日本語(日文)
更改立即生效。
启动
自动启动
登录时自动启动 Alma。
最小化启动
启动时最小化到系统托盘而不是打开窗口。
窗口行为
最小化到托盘
最小化窗口时,最小化到系统托盘而不是任务栏。
关闭到托盘
点击关闭按钮时,最小化到托盘而不是退出应用。
TIP
这些选项适用于让 Alma 在后台运行,以便通过快捷聊天快捷键快速访问。
快捷聊天
失去焦点时隐藏
当快捷聊天窗口失去焦点时自动隐藏。
启用时,在窗口外点击会关闭快捷聊天窗口。禁用时,它会保持可见直到你明确关闭它。
