メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://factory-docs-auto-sync-jp-docs.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

モデルの品質は急速に進化し、エコシステムの変化に合わせてCLIのデフォルト設定を調整しています。このガイドは現在の主要オプションの比較のスナップショットとして活用し、更新を公開する際には再検討することを想定してください。このガイドは2026年3月11日水曜日に最終更新されました。

1 · 現在のスタックランク(2026年3月)

ランクモデル選ぶ理由
1Claude Opus 4.7Max推論を持つ最新のAnthropic主力モデル;最も困難な作業に最適。4月30日まで1×の特別価格(その後2×)。
2Claude Opus 4.6Max推論を持つ前世代のAnthropic主力モデル;複雑な作業でも優秀な深度と安全性を維持。
3Claude Opus 4.6 Fastより高速な応答時間に調整されたOpus 4.6;12×の価格設定。
4Claude Opus 4.5実証済みの品質と安全性のバランス;TUIと実行における優れたデフォルト。
5Claude Sonnet 4.6Sonnetの価格帯(1.2×)でMax推論;計画と実装の日常的な使用に適した強力な選択肢。
6GPT-5.4922Kコンテキスト、128K出力、冗長性サポート、Extra High推論を持つ最新のOpenAIモデル;大規模コンテキストタスクに優秀。
7Claude Sonnet 4.5バランスの取れたコスト/品質で日常使いに強力;Opusレベルの深度が不要な場合の優れた汎用選択肢。
8GPT-5.3-CodexExtra High推論と冗長性サポートを持つ最新のOpenAIコーディングモデル;実装中心のタスクに強力。
9GPT-5.2-CodexExtra High推論を持つ実証済みのOpenAIコーディングモデル;実装中心のタスクに適している。
10GPT-5.2冗長性サポートと最大Extra Highの推論を持つOpenAIモデル。
11Claude Haiku 4.5ルーチンタスクと大量自動化のための高速で費用効率の良いモデル。
12Gemini 3.1 Pro構造化出力に強く、研究集約的なタスクのための混在推論制御を持つ新しいGemini Pro世代。
13Gemini 3 Flash高速で安価(0.2×価格設定)、完全な推論サポート付き;スピードが重要な大量タスクに最適。
14Droid Core (MiniMax M2.7)オープンソース、推論サポート(Low/Medium/High)と画像サポート付き0.12×価格設定;利用可能な最安モデル。
15Droid Core (GLM-5.1)オープンソース、0.55×価格設定、一括自動化とエアギャップ環境向けの新しいGLMオプション;画像サポートなし。
16Droid Core (GLM-5)オープンソース、0.4×価格設定、一括自動化とエアギャップ環境向けの安定した選択肢;画像サポートなし。
17Droid Core (Kimi K2.6)オープンソース、画像サポートとオプションのHigh推論付き0.4×価格設定;思考切り替えが必要なコスト重視の作業に適している。
18Droid Core (Kimi K2.5)オープンソース、画像サポート付き0.25×価格設定;コスト重視の作業向けの古いKimiオプション。
モデルの更新を定期的に配信しています。新しいリリースが上記のリストを上回る場合、 このページとCLIのデフォルトを更新します。

2 · 作業に適したモデルの選択

シナリオ推奨モデル
深い計画立案、アーキテクチャレビュー、曖昧な製品仕様最高の深度と安全性のためOpus 4.7から始める(4月30日まで1×特別価格)、またはより高速な処理のためOpus 4.6 / Opus 4.6 Fastにフォールバック。バランスの取れたコスト/品質ならSonnet 4.6またはSonnet 4.5、大規模コンテキスト推論ならGPT-5.4を使用。
フルフィーチャー開発、大規模リファクタリング深度と安全性のためOpus 4.7またはOpus 4.6。スピードとExtra High推論が必要な場合はGPT-5.4GPT-5.3-Codex、またはGPT-5.2-Codex;バランスの取れたループにはSonnet 4.6またはSonnet 4.5
反復可能な編集、要約、ボイラープレート生成スピードとコストのためHaiku 4.5またはDroid Core(0.12×のMiniMax M2.7を含む)。より高い品質や構造化出力が必要な場合はGPT-5.2
CI/CDまたは自動化ループ予測可能で低コストなスループットのためHaiku 4.5またはDroid Coreを優先。自動化により強力な推論が必要な場合はGPT-5.3-CodexまたはGPT-5.4を使用。
大量自動化、頻繁なクイックターン迅速なフィードバックのためHaiku 4.5。コストが重要または エアギャップ展開が必要な場合はDroid Core(特に推論付き0.12×のMiniMax M2.7)。
Claude Opus 4.7は、極めて複雑なアーキテクチャの決定や最大限の推論能力が必要な重要な作業のための最新の最上位オプションで、4月30日まで1×特別価格で利用できます(その後2×)。Claude Opus 4.6は優秀な代替案であり、Opus 4.6 Fastはより高いコストでより高速な応答に調整されています。ほとんどのタスクはOpusレベルのパワーを必要としません—Sonnet 4.6またはSonnet 4.5から始めて、必要な場合のみエスカレートしてください。
ヒント:/modelまたはセッティングパネル(Shift+TabSettings)で切り替えることで、セッション中にモデルを変更できます。

3 · セッション中のモデル切り替え

  • /model(またはShift+Tab → Settings → Model)を使用して、チャット履歴を失うことなく変更できます。
  • プロバイダーを変更する場合(例:AnthropicからOpenAI)、CLIがAnthropicとOpenAI形式間でセッション記録を変換します。変換は非可逆的で、プロバイダー固有のメタデータは失われますが、実際には精度の低下は確認されていません。
  • 最適なコンテキスト継続性のため、自然な節目でモデルを切り替えてください:コミット後、PRがマージされた時、または失敗したアプローチを放棄して計画をリセットする時。
  • 頻繁に切り替えると、アシスタントが再グラウンディングに1ターンを費やすことがあります;切り替え時に最近の進捗をまとめることを検討してください。

4 · 推論努力設定

  • Opus 4.7: Off / Low / Medium / High / Max(デフォルト:High)
  • Opus 4.6 / Opus 4.6 Fast: Off / Low / Medium / High / Max(デフォルト:High)
  • Sonnet 4.6: Off / Low / Medium / High / Max(デフォルト:High)
  • Opus 4.5 / Sonnet 4.5 / Haiku 4.5: Off / Low / Medium / High(デフォルト:Off)
  • GPT-5.4: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • GPT-5.2: Off / Low / Medium / High / Extra High(デフォルト:Low)
  • GPT-5.2-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • GPT-5.3-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • Gemini 3.1 Pro: Low / Medium / High(デフォルト:High)
  • Gemini 3 Flash: Minimal / Low / Medium / High(デフォルト:High)
  • Droid Core (GLM-5): Noneのみ(デフォルト:None;画像サポートなし)
  • Droid Core (GLM-5.1): Noneのみ(デフォルト:None;画像サポートなし)
  • Droid Core (Kimi K2.6): Off / High(デフォルト:High)
  • Droid Core (Kimi K2.5): Noneのみ(デフォルト:None)
  • Droid Core (MiniMax M2.7): Low / Medium / High(デフォルト:High)
推論努力は遅延とコストを増加させます—シンプルな作業では低めから始めて、必要に応じてエスカレートしてください。MaxはClaude Opus 4.7、Opus 4.6ファミリー(Opus 4.6とOpus 4.6 Fast)、およびSonnet 4.6で利用可能です。Extra HighはGPT-5.4、GPT-5.2、GPT-5.2-Codex、およびGPT-5.3-Codexで利用可能です。
推論努力は/modelReasoning effortから、またはセッティングメニューから変更できます。

5 · Bring Your Own Key(BYOK)

Factoryは管理されたAnthropicとOpenAIアクセスを提供しています。独自のアカウントで実行したい場合、BYOKはオプトイン方式です—セットアップ手順、サポートされているプロバイダー、課金に関する注意事項についてはBring Your Own Keysを参照してください。

オープンソースモデル

Droid Core (GLM-5)Droid Core (GLM-5.1)Droid Core (Kimi K2.6)Droid Core (Kimi K2.5)、および**Droid Core (MiniMax M2.7)**は、CLIで利用可能なオープンソースの代替案です。これらは以下に有用です:
  • 外部API呼び出しが許可されていないエアギャップ環境
  • 無制限のローカル推論が必要なコスト重視のプロジェクト
  • コードがインフラストラクチャから出ることができないプライバシー要件
  • オープンソースモデル機能の実験
注意: GLM-5とGLM-5.1は画像添付をサポートしていません。Kimi K2.5、Kimi K2.6、およびMiniMax M2.7は画像をサポートしています。Kimi K2.6にはOff/High推論切り替えが追加され、MiniMax M2.7(0.12×価格設定で利用可能な最安モデル)はLow/Medium/High推論をサポートしています。画像ベースのワークフローには、Claude、GPT、Kimi、またはMiniMax M2.7を使用してください。 オープンソースモデルを使用するには、ローカル推論サーバー(Ollamaなど)またはホストされたプロバイダーでBYOK経由で設定する必要があります。セットアップ手順についてはBYOKドキュメントを参照してください。

6 · 効果的なことをメモする

  • 高影響ワークフロー(例:仕様生成 vs. クイック編集)と、モデル+推論努力の組み合わせで最適に感じるものを追跡する。
  • モデルの劣化に気づいた時は、コミュニティやFactoryの担当者に連絡して、迅速にベンチマークを取り、このガイダンスを更新できるようにしてください。