Skip to content

通用设置

基本应用设置和行为。

Tool Model

Tool Model 是专门用于后台 AI 操作的模型,与主聊天模型分开。这让你可以为辅助任务使用快速、经济的模型,同时为对话使用更强大(也更贵)的模型。

Tool Model 的作用

Tool Model 用于:

  • 对话标题生成:自动为新聊天对话生成标题
  • 工具选择:分析给定任务应使用哪些工具
  • 参数提取:将用户请求解析为工具参数
  • 记忆操作:处理记忆的存储和检索(除非在记忆设置中覆盖)
  • 后台任务:处理辅助 AI 操作

为什么使用单独的 Tool Model

优势描述
节省成本工具操作频繁但简单——使用便宜的模型可显著降低成本
速度较小的模型响应更快,使工具操作感觉即时
效率主模型专注于对话,而 Tool Model 处理机制性工作

为什么速度和质量都很重要

好的 Tool Model 必须在速度生成质量之间取得平衡——两者缺一不可。

为什么速度很重要

工具操作在对话过程中会频繁发生:

  • 每个新对话都需要生成标题
  • 每条消息都可能触发工具选择分析
  • 每次工具调用都需要参数提取

如果 Tool Model 很慢(每次操作 3 秒以上),这些微小延迟会累积起来,让整个体验感觉迟钝。用户期望标题生成和工具操作感觉即时——理想情况下在 1 秒内完成。

为什么质量也很重要

尽管需要速度,Tool Model 的任务仍然需要真正的智能:

任务质量不足时会出现什么问题
对话标题生成泛泛的标题如"关于代码的聊天",而不是有意义的摘要如"调试 React useEffect 无限循环"
工具选择调用错误的工具,或者完全遗漏应该使用工具的情况
参数提取将"搜索上周修改的文件"错误理解为搜索字面文本"上周"
记忆操作存储无关信息或无法检索相关上下文

一个快但不准确的模型会在整个工作流程中造成令人沮丧的错误。一个准确但慢的模型会让应用感觉反应迟钝。

最佳平衡点

推荐的模型(如 gpt-4o-miniclaude-haiku-4-5gemini-2.0-flash)达到了最佳平衡点:它们足够小,可以在 1 秒内响应,但又足够强大,可以准确处理工具操作。

选择 Tool Model

推荐模型:

服务商推荐原因
OpenAIgpt-4o-mini快速,出色的工具支持
Anthropicclaude-haiku-4-5非常快,质量好
Googlegemini-2.0-flashgemini-1.5-flash极快
DeepSeekdeepseek-chat快速且经济

避免推理模型

切勿将推理/思考模型用作 Tool Model:

  • OpenAI o1o3 系列
  • 启用扩展思考的 Anthropic 模型
  • 任何专为深度推理设计的模型

这些模型针对复杂问题求解进行了优化,响应时间显著更长(10-60+秒),完全不适合需要即时响应的工具操作。

自动检测

如果你不配置 Tool Model,Alma 会根据已启用的服务商自动选择一个:

  1. 按优先顺序检查已启用的服务商(OpenAI → Anthropic → Google → 其他)
  2. 选择可用的最快推荐模型
  3. 如果找不到合适的工具模型,则回退到你的聊天模型

测试你的 Tool Model

使用模型选择器旁边的 测试 按钮验证性能:

结果响应时间含义
✅ 良好< 2.5 秒适合工具操作
⚠️ 较慢2.5 秒 - 5 秒可用但可能感觉迟缓
❌ 不可用> 5 秒对于响应式工具使用来说太慢

语言

选择界面语言:

  • English(英文)
  • 中文(zh)
  • 日本語(日文)

更改立即生效。

启动

自动启动

登录时自动启动 Alma。

最小化启动

启动时最小化到系统托盘而不是打开窗口。

窗口行为

最小化到托盘

最小化窗口时,最小化到系统托盘而不是任务栏。

关闭到托盘

点击关闭按钮时,最小化到托盘而不是退出应用。

TIP

这些选项适用于让 Alma 在后台运行,以便通过快捷聊天快捷键快速访问。

快捷聊天

失去焦点时隐藏

当快捷聊天窗口失去焦点时自动隐藏。

启用时,在窗口外点击会关闭快捷聊天窗口。禁用时,它会保持可见直到你明确关闭它。