検出数 0
高確度 (≥80)0
中確度 (60–79)0
低確度 (≥40)0

セットアップ

LLMのバックエンドを選択して、AIで生成されたリポジトリを検出します。

saved

Windows: 環境変数 OLLAMA_ORIGINS=* を設定して Ollama を再起動してください。
Mac/Linux: OLLAMA_ORIGINS=* ollama serve

gemma3
Google製。軽量で高速。指示への追従が得意。
高速
qwen2.5-coder
コード特化モデル。リポジトリ構造の理解に優れる。
コード特化
qwen2.5
自然言語理解能力が良好。多言語リポジトリに強い。
自然言語◎

モデル未インストール: ollama pull llama3.2

Claude API(クラウド) を使用します。高精度な分析が可能です。
20件分析の目安: $0.05〜$0.15 程度。並列処理で高速に分析します。
saved

Anthropic Console → API Keys で発行。

saved

なし: 60 req/h / あり: 5,000 req/h — GitHub Settings → Tokens(スコープ: public_repo

入力値はこのブラウザの localStorage にのみ保存されます。外部には送信されません。
すべてクリア