模型
Mind Layer 驱动的模型 —— 提供商路由、后处理模型映射与自带 LLM。
Sonzai 与具体模型解耦。Mind Layer 将聊天补全路由到项目所配置的模型, 并在后台运行小型后处理模型来更新记忆、人格与情绪。
各阶段使用的模型
| 阶段 | 用途 | 默认 |
|---|---|---|
| 聊天补全 | 实时回复,流式输出给用户 | gemini-3.1-flash-lite-preview(全平台默认) |
| 后处理 | 记忆抽取、人格漂移、情绪更新、摘要 | 按项目配置的更便宜模型映射 |
| Generation | 由提示生成人格、自我介绍与种子记忆 | 与聊天补全同提供商 |
| 语音 | TTS / STT / 双向流 | 提供商路由 —— 参见 Voice |
受支持的提供商
sonzai.providers 模块是平台所接受的提供商 ID 的权威列表。截止当前:
| 提供商 ID | 说明 |
|---|---|
openai | OpenAI |
gemini | Google Gemini(默认 —— gemini-3.1-flash-lite-preview 即 providers.DEFAULT_MODEL) |
xai | xAI Grok |
openrouter | OpenRouter —— 多模型网关,作为兜底 |
custom | 项目配置的自定义 LLM(BYOM —— 见 Custom LLM) |
可以通过 sonzai.providers / sonzai.providers.models 中的常量预先指定
提供商和模型,也可以通过 client.list_models() 在运行时获取实时列表
(JS/Go SDK 有同名端点)。client.providers 也接受相同的 ID
集,用于按项目列出、设置和测试连通性。
后处理模型映射
聊天补全之外,Sonzai 在后台运行一组更小的模型来抽取记忆、漂移人格与
更新情绪。从聊天模型到后处理模型的映射保存在项目配置项
post_processing_model_map 之下(见各 SDK 中的
sonzai.PostProcessingModelMap / PostProcessingModelEntry)。
* 通配符项为所有未显式映射的聊天模型设定默认值,使配置保持简短;
当某个抽取器需要更强或更轻量的算力时,仍可逐模型覆盖。
参考
端点形态见 参考 → API。代码中规范的
提供商和模型 ID 请直接 import SDK 的 providers 模块,避免手敲字符串。