セットアップ
LLMのバックエンドを選択して、AIで生成されたリポジトリを検出します。
saved
Windows: 環境変数 OLLAMA_ORIGINS=* を設定して Ollama を再起動してください。
Mac/Linux: OLLAMA_ORIGINS=* ollama serve
llama3.2
バランス型。JSON出力が安定。3B・8Bから選択可。
おすすめ
gemma3
Google製。軽量で高速。指示への追従が得意。
高速
qwen2.5-coder
コード特化モデル。リポジトリ構造の理解に優れる。
コード特化
qwen2.5
自然言語理解能力が良好。多言語リポジトリに強い。
自然言語◎
モデル未インストール: ollama pull llama3.2
Claude API(クラウド) を使用します。高精度な分析が可能です。
20件分析の目安: $0.05〜$0.15 程度。並列処理で高速に分析します。
20件分析の目安: $0.05〜$0.15 程度。並列処理で高速に分析します。
saved
saved
なし: 60 req/h / あり: 5,000 req/h —
GitHub Settings → Tokens(スコープ: public_repo)