Skip to main content

模型

Mind Layer 驱动的模型 —— 提供商路由、后处理模型映射与自带 LLM。

Sonzai 与具体模型解耦。Mind Layer 将聊天补全路由到项目所配置的模型, 并在后台运行小型后处理模型来更新记忆、人格与情绪。

各阶段使用的模型

阶段用途默认
聊天补全实时回复,流式输出给用户gemini-3.1-flash-lite-preview(全平台默认)
后处理记忆抽取、人格漂移、情绪更新、摘要按项目配置的更便宜模型映射
Generation由提示生成人格、自我介绍与种子记忆与聊天补全同提供商
语音TTS / STT / 双向流提供商路由 —— 参见 Voice

受支持的提供商

sonzai.providers 模块是平台所接受的提供商 ID 的权威列表。截止当前:

提供商 ID说明
openaiOpenAI
geminiGoogle Gemini(默认 —— gemini-3.1-flash-lite-previewproviders.DEFAULT_MODEL
xaixAI Grok
openrouterOpenRouter —— 多模型网关,作为兜底
custom项目配置的自定义 LLM(BYOM —— 见 Custom LLM

可以通过 sonzai.providers / sonzai.providers.models 中的常量预先指定 提供商和模型,也可以通过 client.list_models() 在运行时获取实时列表 (JS/Go SDK 有同名端点)。client.providers 也接受相同的 ID 集,用于按项目列出、设置和测试连通性。

后处理模型映射

聊天补全之外,Sonzai 在后台运行一组更小的模型来抽取记忆、漂移人格与 更新情绪。从聊天模型到后处理模型的映射保存在项目配置项 post_processing_model_map 之下(见各 SDK 中的 sonzai.PostProcessingModelMap / PostProcessingModelEntry)。

* 通配符项为所有未显式映射的聊天模型设定默认值,使配置保持简短; 当某个抽取器需要更强或更轻量的算力时,仍可逐模型覆盖。

参考

端点形态见 参考 → API。代码中规范的 提供商和模型 ID 请直接 import SDK 的 providers 模块,避免手敲字符串。

On this page