Vscode utilisation de l’extension Continue et configurer Ollama Link to heading

Voici un tutoriel étape par étape pour installer et configurer l’extension Continue dans Visual Studio Code (VSCode) avec Ollama.

Étape 1: Prérequis Link to heading

Avant de commencer, assurez-vous d’avoir:

  • Visual Studio Code installé. Vous pouvez le télécharger ici: VSCode.
  • Ollama installé. Visitez Ollama pour installer ce gestionnaire de modèles AI.

Étape 2: Installer Continue dans VSCode Link to heading

👀 Installing Continue in VS Code

  • Ouvrez VSCode.

  • Dans le panneau de gauche, cliquez sur l’icône des Extensions.

  • Recherchez Continue dans la barre de recherche des extensions.

    install_continue_vscode

  • Cliquez sur Installer pour l’extension Continue.

Étape 3: Configuration d’Ollama Link to heading

Ollama est nécessaire pour gérer les modèles d’IA comme LLaMA 3 et StarCoder. Assurez-vous que Ollama est bien installé et configuré.

  1. Installez Ollama en suivant les instructions fournies sur leur site : Ollama Installation.

  2. Une fois installé, vérifiez que Ollama fonctionne correctement en ouvrant un terminal et en exécutant la commande:

    ollama list
    

Étape 4: Modifier le fichier config.json Link to heading

Pour configurer les modèles utilisés par Continue (chat, autocomplétion, embeddings), vous devez modifier le fichier de configuration config.json.

  1. Ouvrez Visual Studio Code.
  2. Appuyez sur Ctrl + Shift + P pour ouvrir la Palette de Commandes.
  3. Tapez Continue: Open config.json et sélectionnez cette option.

Cela ouvrira le fichier config.json où vous pouvez définir les modèles que vous souhaitez utiliser.

Voici un exemple de configuration pour utiliser LLaMA 3 pour le chat, StarCoder 2 pour l’autocomplétion, et nomic-embed-text pour les embeddings:

{
  "models": {
    "chat": {
      "model": "llama3-70b",
      "provider": "ollama",
      "parameters": {
        "temperature": 0.7
      }
    },
    "autocomplete": {
      "model": "starcoder-2-7b",
      "provider": "ollama",
      "parameters": {
        "temperature": 0.2
      }
    },
    "embeddings": {
      "model": "nomic-embed-text",
      "provider": "openai",
      "parameters": {}
    }
  }
}

Si vous préférez utiliser DeepSeek Coder v2 pour l’autocomplétion, modifiez la section autocomplete de la manière suivante:

"autocomplete": {
  "model": "deepseek-coder-v2:16b",
  "provider": "ollama",
  "parameters": {
    "temperature": 0.2
  }
}

Étape 5: Télécharger et Installer les Modèles via Ollama Link to heading

Ensuite, vous devez télécharger les modèles nécessaires via Ollama.

  1. Téléchargez le modèle LLaMA 3 70B:
ollama pull llama3-70b

Téléchargez le modèle StarCoder 2 ou DeepSeek Coder v2, en fonction de votre choix pour l’autocomplétion:

  • Pour StarCoder 2:

    ollama pull starcoder-2-7b
    
  • Pour DeepSeek Coder v2:

    ollama pull deepseek-coder-v2:16b
    
  • Pour les embeddings, assurez-vous d’avoir le modèle nomic-embed-text téléchargé (cela devrait être configuré automatiquement par Continue).

    ollama pull nomic-embed-text
    

Étape 6: Lancer Continue dans VSCode Link to heading

Une fois que vous avez installé et configuré tous les modèles, vous êtes prêt à utiliser Continue dans VSCode.

  1. Ouvrez un projet dans VSCode.
  2. Utilisez la commande Continue: Start dans la palette de commandes (Ctrl + Shift + P).
  3. Vous pouvez maintenant utiliser Continue avec les modèles que vous avez configurés pour des discussions interactives, de l’autocomplétion, et des embeddings.

Étape 7: Tester les Modèles Link to heading

Commencez par tester si les modèles fonctionnent correctement.

  • Pour le chat, essayez de lancer une session et vérifiez que LLaMA 3 est utilisé.
  • Pour l’autocomplétion, tapez du code et voyez si StarCoder 2 ou DeepSeek Coder v2 propose des complétions pertinentes.
  • Pour les embeddings, utilisez des fonctionnalités qui nécessitent des vecteurs d’embeddings et vérifiez que nomic-embed-text est bien utilisé.

👀 En action