モデルの品質は急速に進化し、エコシステムの変化に合わせてCLIのデフォルト設定を調整しています。このガイドは現在の主要オプションの比較のスナップショットとして活用し、更新を公開する際には再検討することを想定してください。このガイドは2026年3月11日水曜日に最終更新されました。Documentation Index
Fetch the complete documentation index at: https://factory-docs-auto-sync-jp-docs.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
1 · 現在のスタックランク(2026年3月)
| ランク | モデル | 選ぶ理由 |
|---|---|---|
| 1 | Claude Opus 4.7 | Max推論を持つ最新のAnthropic主力モデル;最も困難な作業に最適。4月30日まで1×の特別価格(その後2×)。 |
| 2 | Claude Opus 4.6 | Max推論を持つ前世代のAnthropic主力モデル;複雑な作業でも優秀な深度と安全性を維持。 |
| 3 | Claude Opus 4.6 Fast | より高速な応答時間に調整されたOpus 4.6;12×の価格設定。 |
| 4 | Claude Opus 4.5 | 実証済みの品質と安全性のバランス;TUIと実行における優れたデフォルト。 |
| 5 | Claude Sonnet 4.6 | Sonnetの価格帯(1.2×)でMax推論;計画と実装の日常的な使用に適した強力な選択肢。 |
| 6 | GPT-5.4 | 922Kコンテキスト、128K出力、冗長性サポート、Extra High推論を持つ最新のOpenAIモデル;大規模コンテキストタスクに優秀。 |
| 7 | Claude Sonnet 4.5 | バランスの取れたコスト/品質で日常使いに強力;Opusレベルの深度が不要な場合の優れた汎用選択肢。 |
| 8 | GPT-5.3-Codex | Extra High推論と冗長性サポートを持つ最新のOpenAIコーディングモデル;実装中心のタスクに強力。 |
| 9 | GPT-5.2-Codex | Extra High推論を持つ実証済みのOpenAIコーディングモデル;実装中心のタスクに適している。 |
| 10 | GPT-5.2 | 冗長性サポートと最大Extra Highの推論を持つOpenAIモデル。 |
| 11 | Claude Haiku 4.5 | ルーチンタスクと大量自動化のための高速で費用効率の良いモデル。 |
| 12 | Gemini 3.1 Pro | 構造化出力に強く、研究集約的なタスクのための混在推論制御を持つ新しいGemini Pro世代。 |
| 13 | Gemini 3 Flash | 高速で安価(0.2×価格設定)、完全な推論サポート付き;スピードが重要な大量タスクに最適。 |
| 14 | Droid Core (MiniMax M2.7) | オープンソース、推論サポート(Low/Medium/High)と画像サポート付き0.12×価格設定;利用可能な最安モデル。 |
| 15 | Droid Core (GLM-5.1) | オープンソース、0.55×価格設定、一括自動化とエアギャップ環境向けの新しいGLMオプション;画像サポートなし。 |
| 16 | Droid Core (GLM-5) | オープンソース、0.4×価格設定、一括自動化とエアギャップ環境向けの安定した選択肢;画像サポートなし。 |
| 17 | Droid Core (Kimi K2.6) | オープンソース、画像サポートとオプションのHigh推論付き0.4×価格設定;思考切り替えが必要なコスト重視の作業に適している。 |
| 18 | Droid Core (Kimi K2.5) | オープンソース、画像サポート付き0.25×価格設定;コスト重視の作業向けの古いKimiオプション。 |
モデルの更新を定期的に配信しています。新しいリリースが上記のリストを上回る場合、
このページとCLIのデフォルトを更新します。
2 · 作業に適したモデルの選択
| シナリオ | 推奨モデル |
|---|---|
| 深い計画立案、アーキテクチャレビュー、曖昧な製品仕様 | 最高の深度と安全性のためOpus 4.7から始める(4月30日まで1×特別価格)、またはより高速な処理のためOpus 4.6 / Opus 4.6 Fastにフォールバック。バランスの取れたコスト/品質ならSonnet 4.6またはSonnet 4.5、大規模コンテキスト推論ならGPT-5.4を使用。 |
| フルフィーチャー開発、大規模リファクタリング | 深度と安全性のためOpus 4.7またはOpus 4.6。スピードとExtra High推論が必要な場合はGPT-5.4、GPT-5.3-Codex、またはGPT-5.2-Codex;バランスの取れたループにはSonnet 4.6またはSonnet 4.5。 |
| 反復可能な編集、要約、ボイラープレート生成 | スピードとコストのためHaiku 4.5またはDroid Core(0.12×のMiniMax M2.7を含む)。より高い品質や構造化出力が必要な場合はGPT-5.2。 |
| CI/CDまたは自動化ループ | 予測可能で低コストなスループットのためHaiku 4.5またはDroid Coreを優先。自動化により強力な推論が必要な場合はGPT-5.3-CodexまたはGPT-5.4を使用。 |
| 大量自動化、頻繁なクイックターン | 迅速なフィードバックのためHaiku 4.5。コストが重要または エアギャップ展開が必要な場合はDroid Core(特に推論付き0.12×のMiniMax M2.7)。 |
/modelまたはセッティングパネル(Shift+Tab → Settings)で切り替えることで、セッション中にモデルを変更できます。
3 · セッション中のモデル切り替え
/model(またはShift+Tab → Settings → Model)を使用して、チャット履歴を失うことなく変更できます。- プロバイダーを変更する場合(例:AnthropicからOpenAI)、CLIがAnthropicとOpenAI形式間でセッション記録を変換します。変換は非可逆的で、プロバイダー固有のメタデータは失われますが、実際には精度の低下は確認されていません。
- 最適なコンテキスト継続性のため、自然な節目でモデルを切り替えてください:コミット後、PRがマージされた時、または失敗したアプローチを放棄して計画をリセットする時。
- 頻繁に切り替えると、アシスタントが再グラウンディングに1ターンを費やすことがあります;切り替え時に最近の進捗をまとめることを検討してください。
4 · 推論努力設定
- Opus 4.7: Off / Low / Medium / High / Max(デフォルト:High)
- Opus 4.6 / Opus 4.6 Fast: Off / Low / Medium / High / Max(デフォルト:High)
- Sonnet 4.6: Off / Low / Medium / High / Max(デフォルト:High)
- Opus 4.5 / Sonnet 4.5 / Haiku 4.5: Off / Low / Medium / High(デフォルト:Off)
- GPT-5.4: None / Low / Medium / High / Extra High(デフォルト:Medium)
- GPT-5.2: Off / Low / Medium / High / Extra High(デフォルト:Low)
- GPT-5.2-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
- GPT-5.3-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
- Gemini 3.1 Pro: Low / Medium / High(デフォルト:High)
- Gemini 3 Flash: Minimal / Low / Medium / High(デフォルト:High)
- Droid Core (GLM-5): Noneのみ(デフォルト:None;画像サポートなし)
- Droid Core (GLM-5.1): Noneのみ(デフォルト:None;画像サポートなし)
- Droid Core (Kimi K2.6): Off / High(デフォルト:High)
- Droid Core (Kimi K2.5): Noneのみ(デフォルト:None)
- Droid Core (MiniMax M2.7): Low / Medium / High(デフォルト:High)
5 · Bring Your Own Key(BYOK)
Factoryは管理されたAnthropicとOpenAIアクセスを提供しています。独自のアカウントで実行したい場合、BYOKはオプトイン方式です—セットアップ手順、サポートされているプロバイダー、課金に関する注意事項についてはBring Your Own Keysを参照してください。オープンソースモデル
Droid Core (GLM-5)、Droid Core (GLM-5.1)、Droid Core (Kimi K2.6)、Droid Core (Kimi K2.5)、および**Droid Core (MiniMax M2.7)**は、CLIで利用可能なオープンソースの代替案です。これらは以下に有用です:- 外部API呼び出しが許可されていないエアギャップ環境
- 無制限のローカル推論が必要なコスト重視のプロジェクト
- コードがインフラストラクチャから出ることができないプライバシー要件
- オープンソースモデル機能の実験
6 · 効果的なことをメモする
- 高影響ワークフロー(例:仕様生成 vs. クイック編集)と、モデル+推論努力の組み合わせで最適に感じるものを追跡する。
- モデルの劣化に気づいた時は、コミュニティやFactoryの担当者に連絡して、迅速にベンチマークを取り、このガイダンスを更新できるようにしてください。
