メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://factory-docs-auto-sync-jp-docs.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

Factory CLIは、BYOK(Bring Your Own Key)を通じてカスタムモデル設定をサポートしています。独自のOpenAIやAnthropicキーを使用し、任意のオープンソースモデルプロバイダーに接続するか、お使いのハードウェア上でローカルにモデルを実行できます。設定完了後は、/modelコマンドを使用してモデル間を切り替えることができます。 Factory管理モデルと倍率については、利用可能なモデルを参照してください。
APIキーはローカルに保持され、Factoryサーバーにはアップロードされません。カスタムモデルはCLIでのみ利用可能で、FactoryのWebまたはモバイルプラットフォームには表示されません。
カスタムモデルを表示するモデルセレクター 5分クイックスタートでCLIをインストールする →

設定リファレンス

~/.factory/settings.jsoncustomModels配列にカスタムモデルを追加してください:
{
  "customModels": [
    {
      "model": "your-model-id",
      "displayName": "My Custom Model",
      "baseUrl": "https://api.provider.com/v1",
      "apiKey": "${PROVIDER_API_KEY}",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 16384
    }
  ]
}
settings.json(およびsettings.local.json)では、apiKey${VAR_NAME}構文による環境変数参照をサポートします。たとえば、"apiKey": "${PROVIDER_API_KEY}"PROVIDER_API_KEYという名前の環境変数から読み込みます(例: export PROVIDER_API_KEY=your_key_here)。
レガシーサポート: 後方互換性のため、~/.factory/config.json内でsnake_caseフィールド名(custom_modelsbase_urlなど)を使うカスタムモデルは引き続きサポートされます。両方のファイルが読み込まれてマージされ、settings.jsonが優先されます。apiKeyの環境変数展開はsettings.json/settings.local.jsonに適用され、レガシーのconfig.jsonには適用されません。

サポートされているフィールド

フィールドタイプ必須説明
modelstringAPI経由で送信されるモデル識別子(例:claude-sonnet-4-5-20250929gpt-5-codexqwen3:4b
displayNamestringモデルセレクターに表示される人間が読みやすい名前
baseUrlstringAPIエンドポイントのベースURL
apiKeystringプロバイダー用のAPIキー。空にはできません。settings.json/settings.local.jsonでの${VAR_NAME}をサポートします(例:${PROVIDER_API_KEY}PROVIDER_API_KEY環境変数を使用します)。
providerstring次のいずれか:anthropicopenai、またはgeneric-chat-completion-api
maxOutputTokensnumberモデルレスポンスの最大出力トークン数
noImageSupportbooleanこのモデルで画像入力を無効にするにはtrueに設定
extraArgsobjectAPIリクエストに含める追加のプロバイダー固有の引数
extraHeadersobjectリクエストと共に送信する追加のHTTPヘッダー

extraArgsの使用

temperatureやtop_pなどのプロバイダー固有のパラメータを渡します:
{
  "customModels": [
    {
      "model": "your-model",
      "displayName": "Custom Model",
      "baseUrl": "https://your-provider.com/v1",
      "apiKey": "YOUR_API_KEY",
      "provider": "generic-chat-completion-api",
      "extraArgs": {
        "temperature": 0.7,
        "top_p": 0.9
      }
    }
  ]
}

extraHeadersの使用

APIリクエストにカスタムHTTPヘッダーを追加します:
{
  "customModels": [
    {
      "model": "your-model",
      "displayName": "Custom Model",
      "baseUrl": "https://your-provider.com/v1",
      "apiKey": "YOUR_API_KEY",
      "provider": "generic-chat-completion-api",
      "extraHeaders": {
        "X-Custom-Header": "value",
        "Authorization": "Bearer YOUR_TOKEN"
      }
    }
  ]
}

プロバイダーの理解

FactoryはAPI互換性を決定する3つのプロバイダータイプをサポートしています:
プロバイダーAPI形式使用目的ドキュメント
anthropicAnthropic Messages API (v1/messages)公式APIまたは互換プロキシ上のAnthropicモデルAnthropic Messages API
openaiOpenAI Responses API公式APIまたは互換プロキシ上のOpenAIモデル。GPT-5やGPT-5-Codexなどの最新モデルに必要。OpenAI Responses API
generic-chat-completion-apiOpenAI Chat Completions APIOpenRouter、Fireworks、Together AI、Ollama、vLLM、およびほとんどのオープンソースプロバイダーOpenAI Chat Completions API
Factoryは主要モデルでのDroidの性能を継続的に検証していますが、すべてのカスタムモデルがそのまま動作することは保証できません。公式API経由でアクセスするAnthropicおよびOpenAIモデルのみが完全にテストされ、ベンチマークされています。
モデルサイズに関する考慮事項: 300億パラメータ未満のモデルは、エージェント型コーディングタスクで大幅に低い性能を示しています。これらの小型モデルは実験や学習には役立ちますが、本番のコーディング作業や複雑なソフトウェアエンジニアリングタスクには一般的に推奨されません。

プロンプトキャッシング

Factory CLIは利用可能な場合にプロンプトキャッシングを自動的に使用してAPIコストを削減します:
  • 公式プロバイダー(anthropicopenai:Factoryは公式APIを通じてプロンプトキャッシングの使用を試みます。キャッシング動作は各プロバイダーの実装と要件に従います。
  • 汎用プロバイダー(generic-chat-completion-api:プロンプトキャッシングサポートはプロバイダーによって異なり、保証されません。一部のプロバイダーはキャッシングをサポートする場合もあれば、そうでない場合もあります。

プロンプトキャッシングの確認

カスタムモデルでプロンプトキャッシングが正しく動作しているかを確認するには:
  1. カスタムモデルで会話を実行
  2. Droid CLIで/costコマンドを使用してコスト内訳を表示
  3. 出力でキャッシュヒット率と節約額を確認
期待されるキャッシング節約が表示されない場合は、プロバイダーのプロンプトキャッシングサポートと要件についてのドキュメントを参照してください。

クイックスタート

特定の設定例を表示するには、左ナビゲーションからプロバイダーを選択してください:
  • Baseten - カスタムモデルのデプロイと提供
  • DeepInfra - オープンソースモデル向けの費用対効果の高い推論
  • Fireworks AI - オープンソースモデル向けの高性能推論
  • Google Gemini - GoogleのGeminiモデルへのアクセス
  • Groq - GroqのLPU™ Inference Engineによる超高速推論
  • Hugging Face - HF Inference API上のモデルへの接続
  • Ollama - ローカルまたはクラウドでのモデル実行
  • OpenAI & Anthropic - 公式モデル用の独自APIキーの使用
  • OpenRouter - 単一インターフェース経由での複数プロバイダーへのアクセス

カスタムモデルの使用

設定完了後、CLIでカスタムモデルにアクセスできます:
  1. /modelコマンドを使用
  2. カスタムモデルはFactory提供モデルの下にある別の「カスタムモデル」セクションに表示されます
  3. 任意のモデルを選択して使用開始
カスタムモデルはdisplayNameで設定した名前で表示され、異なるプロバイダーと設定を簡単に識別できます。

トラブルシューティング

セレクターにモデルが表示されない

  • ~/.factory/settings.json(レガシー形式を使用している場合はconfig.json)でJSON構文を確認
  • 設定変更はファイル監視により自動的に検出されます
  • すべての必須フィールドが存在することを確認

「Invalid provider」エラー

  • プロバイダーは正確にanthropicopenai、またはgeneric-chat-completion-apiである必要があります
  • タイプミスを確認し、適切な大文字小文字を確保

認証エラー

  • APIキーが有効で利用可能なクレジットがあることを確認
  • APIキーに適切な権限があることを確認
  • ベースURLがプロバイダーのドキュメントと一致することを確認

ローカルモデルが接続できない

  • ローカルサーバーが実行中であることを確認(例:ollama serve
  • ベースURLが正しく、必要に応じて/v1/サフィックスが含まれていることを確認
  • モデルがローカルでプルされ/利用可能であることを確認

レート制限またはクォータエラー

  • プロバイダーのレート制限と使用クォータを確認
  • プロバイダーのダッシュボードで使用量を監視

請求

  • Factory のマークアップや使用料なしで、プロバイダーに直接お支払いいただきます
  • プロバイダーのダッシュボードでコストと使用量を追跡