Continue.devで実現するVSCode内AI駆動開発ワークフロー
Continue.devはVSCodeとJetBrainsに対応したオープンソースのAIコーディング拡張。自前のLLMを接続できる柔軟性と深いIDE統合で、コスト最適化しながら高品質な開発支援を実現する方法を解説する。
Continue.devとは何か、なぜ注目されるのか
Continue.devは、IDE内でAIコーディング支援を実現するオープンソースのプラットフォームです。GitHub CopilotやCursorと同じ「IDE統合型AI」カテゴリに属しますが、決定的な違いは「どのLLMでも使える」という開放性にあります。Claude、GPT-4o、Gemini、Mistral、CodeLlamaなど、APIがあれば事実上あらゆるモデルをバックエンドとして設定できます。
企業や個人開発者がContinue.devを選ぶ主な理由は、コスト管理の自由度です。GitHub Copilotのような月額固定課金ではなく、実際に使ったAPIコール分だけを支払う従量制に切り替えられます。チームの利用状況に応じて最適なモデルとコストバランスを選べるのは、大きなアドバンテージです。
インライン補完と対話型チャットの統合
Continue.devは二つの主要モードを提供します。一つ目はGitHub Copilotと同様のインライン補完で、コードを書きながらリアルタイムで候補を提示します。二つ目はサイドパネルでのAIチャットで、コードの説明、リファクタリング提案、バグ修正、テスト生成など、より複雑なタスクを対話形式で実行できます。
特に便利なのが「コンテキスト選択」機能です。チャット入力欄で@記号を使うことで、特定のファイル、フォルダ、開いているタブ、Gitの差分、ドキュメントURLなど、任意の情報をコンテキストとしてLLMに渡せます。「@src/auth/login.ts このファイルのセキュリティ上の問題点を指摘して」という使い方が直感的にできます。
カスタムスラッシュコマンドでチーム固有のワークフローを自動化
Continue.devの差別化機能の一つが、カスタムスラッシュコマンドです。チーム固有のコーディング規約に従ったコードレビュー、自社のAPIドキュメントを参照したコード生成、特定のフレームワーク流儀に沿ったコンポーネント生成など、チームの開発スタイルに合わせたコマンドを定義できます。これらの設定はJSONファイルで管理でき、Gitリポジトリで共有することでチーム全体に展開できます。
ローカルLLMとの組み合わせでゼロコスト環境を構築
Continue.devはOllamaとの公式統合を提供しており、ローカルマシンで動くLLMをバックエンドとして使うことができます。CodeLlama 70BやDeepSeek Coder V2などのコーディング特化モデルをローカルで動かすことで、APIコストゼロの完全オフライン開発環境が実現します。M2 Mac以降であれば7Bから13Bクラスのモデルであれば実用的な速度で動作するため、機密性の高いコードを外部に送りたくない場面での選択肢として有力です。