Continue.dev

IDE拡張機能無料

オープンソースのAI開発アシスタント。ローカルLLM対応

Continue.dev - 詳細情報

基本情報

  • 開発元: Continue Dev, Inc.
  • カテゴリ: オープンソースAIコーディングアシスタント
  • 動作環境: VS Code / JetBrains IDE拡張
  • 最終更新: 2025年8月29日
  • ライセンス: Apache 2.0

概要

Continue.devは、オープンソースのAI開発アシスタントで、任意のLLMを使用してIDEにAI機能を統合できます。ローカルLLMのサポートが充実しており、プライバシーを重視する開発者に人気。

主要機能

  • マルチモデル対応: 20以上のLLMプロバイダー対応
  • ローカルLLM: Ollama統合でオフライン動作
  • カスタムプロンプト: プロジェクト固有の設定
  • コンテキスト管理: @ファイル、@フォルダー参照
  • タブ補完: 高速なインライン提案
  • リファクタリング: コード改善提案
  • 説明生成: コードの自動ドキュメント化

料金プラン

プラン料金特徴
オープンソース無料全機能利用可能
クラウドAPI使用量に応じて選択したLLMのAPI料金
セルフホスト無料自社インフラで運用

対応モデル

クラウドモデル:
  - OpenAI (GPT-4, GPT-3.5)
  - Anthropic (Claude)
  - Google (Gemini, PaLM)
  - Cohere
  - Together AI
  
ローカルモデル:
  - Ollama統合
    - Llama 3
    - CodeLlama
    - Mistral
    - DeepSeek Coder
  - LM Studio
  - Jan.ai
  
エンタープライズ:
  - Azure OpenAI
  - AWS Bedrock
  - Google Vertex AI

インストール方法

VS Code

# 拡張機能マーケットプレイスから
1. VS Code拡張機能 → "Continue"を検索
2. Install → Reload

# CLIから
code --install-extension Continue.continue

JetBrains IDE

1. Settings → Plugins
2. Marketplace → "Continue"を検索
3. Install → Restart IDE

ローカルLLM設定(Ollama)

# Ollamaインストール
curl -fsSL https://ollama.ai/install.sh | sh

# モデルダウンロード
ollama pull codellama
ollama pull llama3

# Continue設定で選択

設定ファイル

// ~/.continue/config.json
{
  "models": [
    {
      "title": "GPT-4",
      "provider": "openai",
      "model": "gpt-4",
      "apiKey": "YOUR_API_KEY"
    },
    {
      "title": "Local Llama",
      "provider": "ollama",
      "model": "codellama:13b"
    }
  ],
  "tabAutocompleteModel": {
    "title": "Starcoder",
    "provider": "ollama",
    "model": "starcoder:3b"
  },
  "customCommands": [
    {
      "name": "test",
      "prompt": "Write a comprehensive test for this code"
    }
  ],
  "contextProviders": [
    {
      "name": "code",
      "params": {"maxTokens": 4096}
    }
  ]
}

使い方の例

// Cmd+I でチャット起動
// @ファイル参照
"@src/main.ts このファイルをリファクタリング"

// Tab補完
function calculate// → 自動補完

// カスタムコマンド
/test → テスト生成
/explain → コード説明
/fix → バグ修正

// コンテキスト指定
"@folder:src 全体の構造を説明"

日本語対応

  • ✅ 対応
  • UIは英語のみ
  • 日本語プロンプト可能
  • 日本語コメント生成対応

長所

  • 完全無料・オープンソース
  • ローカルLLM対応(プライバシー)
  • 豊富なモデル選択肢
  • カスタマイズ性が高い
  • 活発な開発コミュニティ
  • 軽量で高速

短所

  • 設定がやや複雑
  • UIが基本的
  • 商用サポートなし
  • ドキュメントが発展途上

競合比較

項目ContinueClineGitHub Copilot
価格無料無料$10/月〜
ローカルLLM×
設定の簡単さ
IDE対応VS Code/JetBrainsVS Code多数

プライバシー機能

  • ローカルLLM完全対応
  • テレメトリ無効化可能
  • コード送信の完全制御
  • オンプレミス展開可能

カスタマイズ例

// カスタムプロバイダー
{
  "models": [{
    "title": "Company LLM",
    "provider": "openai-compatible",
    "baseUrl": "https://internal-llm.company.com",
    "model": "custom-model",
    "apiKey": "INTERNAL_KEY"
  }]
}

// プロジェクト固有設定
{
  "systemMessage": "You are an expert in React and TypeScript. Always use functional components and hooks.",
  "temperature": 0.3
}

公式リソース

更新履歴

  • 2025年8月: Ollama統合改善
  • 2025年7月: JetBrains IDE対応
  • 2025年6月: タブ補完機能追加

よくある質問

Q: 完全オフラインで使える? A: はい、Ollamaとローカルモデルで完全オフライン動作可能です。

Q: 企業での利用は? A: Apache 2.0ライセンスで商用利用可能、セルフホストも可能です。

Q: どのモデルがおすすめ? A: オンラインならGPT-4、オフラインならCodeLlama 13Bが推奨です。


最終確認日: 2025年8月29日 次回更新予定: 2025年9月15日

タグ

オープンソースローカルLLMプライバシー
Continue.dev - AI Code Ecosystem Japan