VS Code + Cline で ”Devin 風”開発を行う方法③ - マルチエージェント環境の構築編

前回は、VS Code と Cline 拡張機能を使って、いわゆる「Devin 風」の開発環境を構築し、AI エージェントと一緒に既存コードのリファクタリングを進めました。
その中で見えてきたのは、「AI に任せる」というよりも、「人間がタスクを分解し、AI に段階的に作業させる」ことの重要性です。
では、そのタスク分解をさらに一歩進めて、Devin のように複数の AI エージェントで役割分担させることはできるのでしょうか?
今回からは、Cline の Kanban 機能を使ってタスクを管理しながら、AI エージェントを“チーム”のように動かす、いわゆるマルチエージェント的な開発スタイルを検証していきます。
今回の記事を作成するにあたり、以下の講座で勉強させていただきました。コードを 1 行も書かずに、リアルタイムチャートと AI アシスタンス機能付きの株取引アプリ (トレーディング・ワークステーション) を構築されています。英語の講座ですが、Udemy の「トランスクリプション」という機能を使用すると講義内容がテキスト形式で右側に表示されるので、Chrome などの「翻訳機能」を使用すると日本語で表示できます。Microsoft Edge ブラウザーを使用すればビデオ内の字幕を直接日本語に変換できるようです。
Udemy
AI Coder: Complete Claude Code & Coding Agents Course
この記事で使用している実行環境は以下のようになっています。
- VS Code (Windows 版)・・・バージョン 1.118.1
- Node.js (Windows 版)・・・バージョン 24.15.0
- Cline・・・バージョン 2.18.0
- Kanban・・・バージョン 0.1.63
※本記事でご紹介している内容は、確立された手法ではなく著者の独自の解釈に基づいています。その点をご理解のうえご参照ください。
動作環境について
本記事では LLM の実行環境として、「Ollama」を使用したローカル環境で実行しています。Cline の こちら の公式ページを参考にしてインストールします。
公式ページでは「qwen2.5-coder:32b」というモデルが推奨されていますが、このモデルが快適に動作する GPU ボードは非常に高価なため、本記事では「gpt-oss:20b」というモデルを使用しています。このモデルであれば 16 GB の VRAM でも 量子化 や CPU オフロード 機能のおかげでそれほどストレスなく動作します。Windows や VS Code のターミナル画面を開いて、以下のように入力するとモデルがインストールされます。
ollama pull gpt-oss:20b今回もコストを抑えるためにローカル LLM を使用していますが、精度を重視する場合はクラウドモデルの方が安定します。
Ollama のインストーラーは こちら からダウンロードできます。デフォルト設定でインストールしてください。起動前に Windows のターミナル画面などで以下のコマンドを実行しておくと、GPU の専用メモリ (VRAM) が効率的に利用できます。
[Environment]::SetEnvironmentVariable("OLLAMA_MAX_LOADED_MODELS","1","User")
[Environment]::SetEnvironmentVariable("OLLAMA_NUM_PARALLEL","1","User")
[Environment]::SetEnvironmentVariable("OLLAMA_KEEP_ALIVE","30m","User")Kanban をインストールします
VS Code のターミナル画面で、以下のように入力して Kanban (Cline) をインストールします。
npm install -g clineインストールが完了したら、プロジェクト (コードベース) を VS Code で開いてターミナル画面に「cline」と入力すると Kanban が起動します。プロジェクトを Kanban で操作するには、git リポジトリが初期化されていて、初回のコミットが終了している必要があります。

Kanban が起動したら、右上の設定ボタンを押します。

Ollama をローカルエージェントとして使用するには、以下のように設定します。
- 左側のメニューから「Cline」を選択します。
- API provider から「Ollama」を選択します。
- API key は任意の文字列 (local 等) を入力します。
- Base URL は Ollama が起動している PC のアドレスを入力します。
同じ PC 上で動作している場合は画像に示されている設定にします。 - Model ID から「gpt-oss:20b」を選択します。
- Reasoning effort から任意の値を選択します。
複雑な処理を行う場合は「High」などを選択します。
設定が終了したら、右下の「Save」ボタンで設定を保存します。

設定が完了したら、動作テストを行います。「Kanban Agent」タブを選択して、左下の入力欄に「こんにちは」などと入力してエンターキーを押します。何か応答が返ってくれば正常に動作しています。(Kanban を安定動作させるには パラメータ数 が 20B 程度以上の LLM モデルが必要なようです。LiteLLM を使用すれば「gemma3:12b」などのモデルも接続はできますが、上手く動作しないようです。)

Kanban の動作確認を行います
「Backlog」レーンにある「Create task」をクリックすると手動でタスクを作成できますが、マルチエージェントで作業ループを回すには、レビューなどを担当する AI エージェントが新しいタスクを自動的に作成できる必要があります。

そこで Kanban Agent に以下のようなプロンプトを入力して実際にタスクが作成できるか確認してみます。

デフォルト状態では自動で作成してくれないようです。PowerShell を使用して手動で作成するように提案されます。

提案されたコマンドは非常に長く、実行プログラム (node.exe) のパスにスペースが含まれるなど誤動作を引き起こしそうなので、いろいろ調べてみると以下のようなコマンドでタスクを作成できるようです。
npx kanban task create --title "test" --prompt "test"確認のため Kanban 画面の右上にあるターミナルボタン (>_) を押して、表示されたターミナル画面に上記のコマンドを入力するとタスクが作成されました。

同様のコマンドを生成するようなルールを作成してみましたが、処理が完了しなかったり、同じタスクがいくつも作成されるようなケースがありました。

詳しく調べてみると、タスクの生成は成功しているのに、以下のようなエラーが発生しているために何度かリトライしているようです。このエラーは Node.js で使用している libuv という中核的なライブラリの async.c というファイル内で発生しています。終了処理中のハンドルに再度アクセスなどを行うとアサーションエラーが発生するようです。Windows 固有の現象らしく、Linux や macOS では報告されていないようです。
Command failed: Assertion failed: !(handle->flags & UV_HANDLE_CLOSING), file src\win\async.c, line 76標準エラー出力を出さないようにしても、終了コードなどもチェックするので、完了したとは認識してくれないようです。
そこで本記事では、PowerShell -File 経由で npx kanban task create を呼び出す方式に変更して、さらに .clinerules を使ってタスク生成ルールを固定しました。
まず「.clinerules\scripts\kanban-create-task.ps1」というファイルを作成して、タスク生成はこの PowerShell スクリプトに一本化します。
param(
[Parameter(ValueFromRemainingArguments = $true)]
[string[]]$RemainingArgs
)
$KanbanArgs = @(
"kanban"
"task"
"create"
)
$KanbanArgs += $RemainingArgs
$Output = npx @KanbanArgs 2>$null
$Text = $Output | Out-String
Write-Output $Text
if ($Text -match '"ok"\s*:\s*true' -and $Text -match '"id"\s*:\s*"[^"]+"') {
exit 0
}
exit 1上記スクリプトの 13 行目で標準エラー出力を廃棄していますが、タスク生成が成功すると以下のような JSON 形式の文字列が返ってきますので、「ok」項目と「task.id」項目を見て成功の可否を判定しています。
{
"ok": true,
"task": {
"id": "d13c5",
"column": "backlog",
"workspacePath": "D:\\MAMP\\htdocs\\cline\\YelpCampCleanArch",
"title": "test",
"prompt": "test",
"baseRef": "main",
"startInPlanMode": false,
"autoReviewEnabled": false,
"autoReviewMode": "commit"
}
}次に「.clinerules\task-create-rules.md」というルールファイルを作成して、スクリプト経由以外でのタスク作成を禁止します。
# High Priority Rules - MUST FOLLOW
## kanban task create ルール
- `command` には必ず `"powershell"` を指定すること。
- 直接 `node` や `npx` コマンドを `command` に指定してはいけない。
- タスク作成は `.clinerules\scripts\kanban-create-task.ps1` 経由のみ許可する。
- run_commands は以下の形式で実行する
{
"command": "powershell",
"args": [
"-NoProfile", "-ExecutionPolicy", "Bypass", "-File",
".clinerules\scripts\kanban-create-task.ps1", `<options>`]
}
- `<options>` は PowerShell パラメータ形式でそのまま args 配列へ追加すること。さらにルールファイルが読み込まれやすくなるように、「.clinerules\AGENTS.md」というファイルを作成して以下の内容を書き込みます。
# High Priority Rules - MUST FOLLOW
## 必須ルール読込
- kanban タスクを作成する前に以下のルールを必ず読み込む:
`.clinerules\task-create-rules.md`Kanban Agent から先ほどと同じ要領でタスクを作成するとうまく動作したようです。(必ずしもこのような結果になるとは限らないようです。「”.clinerules\task-create-rules.md” ファイルを読み込んでルールに従ってください。」 などとあらかじめ指定しておくと動作が安定するようです。)

ローカルモデルのため推論が弱いですが、このようにスクリプトに誘導してあげればかなり複雑な処理も安定して実行できそうです。
想定より設定に時間がかかってしまったため、今回はここまでを公開します。
次回は、実際に複数の AI エージェントに役割を分担させ、タスクループを回す構成を検証する予定です。






