Ollamaを使用してローカルハードウェアでモデルを実行するか、ホスト型推論にはOllama Cloudを使用してください。Documentation Index
Fetch the complete documentation index at: https://factory-docs-auto-sync-jp-docs.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
パフォーマンスに関する注意: 300億パラメータ未満のモデルは、エージェント型コーディングタスクで大幅に低い性能を示しています。小型モデル(7B、13B)は実験や学習には役立ちますが、本番のコーディング作業や複雑なソフトウェアエンジニアリングタスクには一般的に推奨されません。
ローカル Ollama
インターネット接続不要で、マシン上で完全にモデルを実行します。設定
~/.factory/settings.json に追加:
セットアップ
- ollama.com/download からOllamaをインストール
- 必要なモデルをプル:
- 追加のコンテキストでOllamaサーバーを開始:
- Factory設定に構成を追加
おおよそのハードウェア要件
| モデルサイズ | 必要RAM | VRAM (GPU) |
|---|---|---|
| 3B params | 4GB | 3GB |
| 7B params | 8GB | 6GB |
| 13B params | 16GB | 10GB |
| 30B params | 32GB | 20GB |
| 70B params | 64GB | 40GB |
Ollama Cloud
ローカルハードウェア要件なしで、Ollamaのクラウドサービスを使用してホスト型モデル推論を利用推奨クラウドモデル
エージェント型コーディングに最適なパフォーマンスは qwen3-coder:480b で観測されています。 利用可能なクラウドモデルの完全なリストについては:ollama.com/search?c=cloud設定
クラウドモデルを始める
- Ollamaがインストールされ、ローカルで実行されていることを確認
- クラウドモデルはローカルOllamaインスタンス経由でアクセス - APIキー不要
- 上記の設定をFactory設定に追加
- 要求時にモデルが自動的にクラウドコンピュートを使用
トラブルシューティング
ローカルサーバーが接続できない
- Ollamaが実行中であることを確認:
ollama serve - ポート11434が利用可能かチェック
- テストには
curl http://localhost:11434/api/tagsを試行
モデルが見つからない
- 最初にモデルをプル:
ollama pull model-name ollama listで正確なモデル名を確認
注意事項
- ローカルAPIは認証不要(
api_keyには任意のプレースホルダーを使用) - モデルは
~/.ollama/models/に保存されます
