CHARBON

Cursor avec Modèles Locaux : Guide Complet

Cursor avec Modèles Locaux : Guide Complet
← Retour

Publié le Mon Mar 25 2024 00:00:00 GMT+0000 (Coordinated Universal Time) par Diane

Cursor Local : Utiliser l’IA 100% Privée

Tu veux utiliser Cursor avec des modèles locaux pour la confidentialité ou le coût ? C’est possible. Voici deux approches pour y arriver.

Les 2 Approches

ApprocheComplixitAvantagesInconvénients
LM Studio + NgrokÉlevéeGratuit, 100% localConfiguration complexe
Gaia (semi-local)FaibleSimple, performantSemi-cloud (données partagées)

Prérequis Système

Pour Mac

ComposantRequisRecommandé
ProcesseurApple Silicon M1-M4M2+
RAM16 Go minimum32 Go
OSmacOS récentmacOS 14+

Pour Linux

ComposantRequisRecommandé
GPU8 Go VRAM minimum24 Go+
CUDACUDA 12 SDKOui
Instance cloud1x GPUT4 ou mieux (A100)

Approche 1 : LM Studio + Ngrok

Installation

# Installer LM Studio
brew install --cask lm-studio

# Installer Ngrok
brew install --cask ngrok

Démarrage

# 1. Lance LM Studio et démarre le serveur sur le port 1234
lm-studio

# 2. Crée un tunnel Ngrok
ngrok http 1234

Ngrok t’aura donné une URL HTTPS du style : https://abcd-1234.ngrok.io

Configuration Cursor

# Dans Cursor : Settings > Models > Add Model

Name: local-llama
Base URL: https://abcd-1234.ngrok.io/v1
API Key: DEMO

Modèles populaires pour LM Studio

ModèleParamètresRAM requiseMeilleur pour
Llama 3 8B8B16 GoCode général
Mistral 7B7B16 GoAutocomplétion
Codestral 22B22B32 GoCode spécialisé
Qwen 7B7B16 GoCode + français

Approche 2 : Gaia (Semi-Local)

Qu’est-ce que Gaia ?

Gaia est un réseau décentralisé de nœuds d’inférence pour l’IA.

Avantages :

  • Pas besoin de GPU puissant
  • Configuration simple
  • Modèles optimisés pour le code

Inconvénients :

  • Pas 100% local (données envoyées au nœud)
  • Dépendance internet

Compte Gaia

  1. Va sur gaia.domains
  2. Crée un compte (gratuit)
  3. Choisis ton modèle :
    • coder : Spécialisé code
    • llama : Modèle général
    • rustcoder : Expert Rust

Configuration Cursor

# Dans Cursor : Settings > Models > Add Model

Name: gaia-coder
Base URL: https://coder.gaia.domains/v1
API Key: [ta clé Gaia]

Obtenir une clé API

  1. Connecte-toi à Gaia
  2. Va dans “API Keys”
  3. Crée une nouvelle clé
  4. Copie et colle dans Cursor

Comparaison

CritèreLM Studio + NgrokGaia
InstallationComplexe (3 outils)Simple (1 compte)
ConfidentialitéVia tunnel (exposition externe)Via nœud Gaia
PerformanceDépend hardwareStable, optimisée
CoûtGratuitCrédits ou tiers
MaintenanceGérer tunnel, redémarrageAutomatique

Modèles Recommandés

Pour le code (Python, JS, TS)

ModèleTailleNote
Qwen 2.5 Coder7BExcellent pour le code
Codestral22BMeilleur modèle code (besoin 32 Go RAM)
DeepSeek Coder33BTrès bon mais lourd
Llama 3 8B8BBon équilibre

Pour le français + code

ModèleTailleNote
Mistral 7B7BBon français
Qwen 7B7BFrançais + code
Mixtral 8x7B47BPlus lourd, très performant

Troubleshooting

Cursor ne se connecte pas

# Teste l'URL avec curl
curl -X POST https://[ta-url]/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama",
    "messages": [{"role": "user", "content": "Hello"}]
  }'

Si ça ne marche pas :

  1. Vérifie que Ngrok/LM Studio tourne
  2. Vérifie l’URL dans Cursor
  3. Essaie avec API Key: DEMO

Lenteur excessive

CauseSolution
Modèle trop grand pour le hardwareUtilise un modèle plus petit
Tunnel Ngrok lentEssaie Cloudflare Tunnel
CPU onlyEssaie un modèle plus léger
Trop de contextRéduis les références @

Erreurs de génération

# Ajoute des paramètres dans l'URL
https://[ta-url]/v1/chat/completions?temperature=0.3&top_p=0.9
ParamètreEffetValeur recommandée
temperatureCréativité (0 = déterministe)0.2-0.3 pour le code
top_pSélection parmi tokens probables0.9-0.95
max_tokensLongueur réponse1000-2000

Alternatives à Gaia

Ollama

# Installation
brew install ollama

# Démarrage
ollama serve

# Configuration Cursor (via URL locale)
Base URL: http://localhost:11434/v1

LocalAI

# Installation
pip install localai

# Démarrage
localai run qwen2.5-coder

# Configuration Cursor
Base URL: http://localhost:8080/v1

En savoir plus


Les modèles locaux sont une excellente solution pour la confidentialité et le contrôle. La clé est de choisir le bon modèle pour ton hardware, et d’accepter quelques compromis sur la performance. Commence avec un modèle léger (Llama 3 8B ou Mistral 7B) et passe à des modèles plus gros si ton hardware le permet.

Écrit par Diane

← Retour

Publications Récentes