メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://factory-docs-auto-sync-jp-docs.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

Hugging Faceの推論プロバイダーでホストされている数千のモデルに接続できます。詳細はInference Providers documentationをご覧ください。
モデルパフォーマンス: 300億パラメータ未満のモデルは、エージェント型コーディングタスクで大幅に低い性能を示しています。HuggingFaceには実験に役立つ小型モデルが多数ありますが、本番のコーディング作業には一般的に推奨されません。複雑なソフトウェアエンジニアリングタスクには300億以上のパラメータを持つモデルの使用を検討してください。

設定

~/.factory/settings.jsonに追加してください:
{
  "customModels": [
    {
      "model": "openai/gpt-oss-120b:fireworks-ai",
      "displayName": "GPT OSS 120B [HF Router]",
      "baseUrl": "https://router.huggingface.co/v1",
      "apiKey": "YOUR_HF_TOKEN",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 32768
    },
    {
      "model": "meta-llama/Llama-4-Scout-17B-16E-Instruct:fireworks-ai",
      "displayName": "Llama 4 Scout 17B [HF Router]",
      "baseUrl": "https://router.huggingface.co/v1",
      "apiKey": "YOUR_HF_TOKEN",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 16384
    }
  ]
}

はじめに

  1. huggingface.coでサインアップしてください
  2. huggingface.co/settings/tokensからトークンを取得してください
  3. huggingface.co/modelsでモデルを閲覧してください
  4. 希望するモデルを設定に追加してください

注意事項

  • モデル名は正確なHugging Faceリポジトリ IDと一致する必要があります
  • 一部のモデルはHFウェブサイトで最初にライセンス契約に同意する必要があります
  • 大きなモデルは無料ティアでは利用できない場合があります