モデル
Mind Layer が動かすモデル ── プロバイダ ルーティング、後処理モデル マップ、独自 LLM の持ち込み。
Sonzai はモデル非依存です。Mind Layer はプロジェクトで設定された モデルへチャット補完を流し、バックグラウンドでは小規模モデルが メモリ・人格・気分を更新します。
どこで何が動くか
| 段階 | 役割 | 既定 |
|---|---|---|
| チャット補完 | リアルタイム応答をユーザへストリーミング | gemini-3.1-flash-lite-preview(プラットフォーム既定) |
| 後処理 | メモリ抽出・人格ドリフト・気分更新・要約 | プロジェクト単位で設定する小型モデルのマップ |
| Generation | プロンプトから人格・自己紹介・シード メモリを生成 | チャット補完と同じプロバイダ |
| 音声 | TTS / STT / 双方向ストリーム | プロバイダ ルーティング ── Voice を参照 |
サポート プロバイダ
sonzai.providers モジュールがプラットフォームに受け入れられる
プロバイダ ID の正典です。執筆時点:
| プロバイダ ID | 内容 |
|---|---|
openai | OpenAI |
gemini | Google Gemini(既定 ── gemini-3.1-flash-lite-preview が providers.DEFAULT_MODEL) |
xai | xAI Grok |
openrouter | OpenRouter ── 多モデル ゲートウェイ。フォールバックとして利用 |
custom | プロジェクトで設定した独自 LLM(BYOM ── Custom LLM 参照) |
sonzai.providers / sonzai.providers.models の定数で先に固定する
方法と、ランタイムで client.list_models() でライブの一覧を取得する
方法の両方が使えます(JS/Go SDK も同じエンドポイントを公開)。
プロジェクト単位での一覧・設定・接続テストには client.providers も
同じ ID 集合を受け付けます。
後処理モデル マップ
チャット補完の裏で、Sonzai はメモリ抽出・人格ドリフト・気分更新を
担う小型モデルを動かしています。チャット モデルから後処理モデルへの
マッピングは、プロジェクト設定の post_processing_model_map キーに
保存されます(SDK では
sonzai.PostProcessingModelMap / PostProcessingModelEntry)。
* ワイルドカード項目で、明示的にマッピングされていないチャット
モデルすべての既定値を設定できます。設定を短く保ちつつ、必要な抽出器
だけはモデル別に上書きする ── という運用が可能です。
リファレンス
エンドポイント仕様は リファレンス → API を参照。
コード上の正典のプロバイダ/モデル ID は SDK の providers モジュール
を直接 import してください ── 文字列を手書きするとずれる可能性があります。