Skip to main content

モデル

Mind Layer が動かすモデル ── プロバイダ ルーティング、後処理モデル マップ、独自 LLM の持ち込み。

Sonzai はモデル非依存です。Mind Layer はプロジェクトで設定された モデルへチャット補完を流し、バックグラウンドでは小規模モデルが メモリ・人格・気分を更新します。

どこで何が動くか

段階役割既定
チャット補完リアルタイム応答をユーザへストリーミングgemini-3.1-flash-lite-preview(プラットフォーム既定)
後処理メモリ抽出・人格ドリフト・気分更新・要約プロジェクト単位で設定する小型モデルのマップ
Generationプロンプトから人格・自己紹介・シード メモリを生成チャット補完と同じプロバイダ
音声TTS / STT / 双方向ストリームプロバイダ ルーティング ── Voice を参照

サポート プロバイダ

sonzai.providers モジュールがプラットフォームに受け入れられる プロバイダ ID の正典です。執筆時点:

プロバイダ ID内容
openaiOpenAI
geminiGoogle Gemini(既定 ── gemini-3.1-flash-lite-previewproviders.DEFAULT_MODEL
xaixAI Grok
openrouterOpenRouter ── 多モデル ゲートウェイ。フォールバックとして利用
customプロジェクトで設定した独自 LLM(BYOM ── Custom LLM 参照)

sonzai.providers / sonzai.providers.models の定数で先に固定する 方法と、ランタイムで client.list_models() でライブの一覧を取得する 方法の両方が使えます(JS/Go SDK も同じエンドポイントを公開)。 プロジェクト単位での一覧・設定・接続テストには client.providers も 同じ ID 集合を受け付けます。

後処理モデル マップ

チャット補完の裏で、Sonzai はメモリ抽出・人格ドリフト・気分更新を 担う小型モデルを動かしています。チャット モデルから後処理モデルへの マッピングは、プロジェクト設定の post_processing_model_map キーに 保存されます(SDK では sonzai.PostProcessingModelMap / PostProcessingModelEntry)。

* ワイルドカード項目で、明示的にマッピングされていないチャット モデルすべての既定値を設定できます。設定を短く保ちつつ、必要な抽出器 だけはモデル別に上書きする ── という運用が可能です。

リファレンス

エンドポイント仕様は リファレンス → API を参照。 コード上の正典のプロバイダ/モデル ID は SDK の providers モジュール を直接 import してください ── 文字列を手書きするとずれる可能性があります。

On this page