J'ai créé mon IA en local sur mon MAC (partie 3) — Le virage MCP
Le jour où mon Mac a cessé de simplement "réfléchir" pour commencer à "travailler"
On est à la mi-janvier 2026. Mes deux premiers articles (partie 1 et partie 2) viennent de sortir et, honnêtement, je pensais avoir trouvé mon équilibre avec mon MacBook Pro M3 Max et ses 48 Go de mémoire. Je faisais rouler Qwen 14B à une vitesse fulgurante de 127 tokens par seconde. C'était grisant, presque hypnotique de voir le texte défiler plus vite que mon cerveau ne pouvait le lire. Mais après quelques semaines d'utilisation intensive pour du développement complexe, j'ai frappé un mur invisible.
Le constat était là : dès que je demandais à l'IA de jongler avec des architectures logicielles entières ou de déboguer des intégrations asynchrones, le modèle 14B commençait à « halluciner » ou à perdre le fil de la logique. J'avais besoin de plus de neurones, de modèles plus denses comme le 32B ou le 70B, mais ma machine de l'époque s'essoufflait. Charger un modèle de 32B sur 48 Go de RAM, c'est comme essayer de faire entrer un divan trois places dans une Mini Cooper : ça rentre, mais tu ne peux plus conduire.
L'envie de passer à la vitesse supérieure est devenue une obsession technique. Je voulais tester les limites de l'inférence locale sans compromis sur la précision. C'est là, au début de février 2026, que j'ai pris la décision qui allait redéfinir mon environnement de travail pour les prochaines années : j'ai craqué pour le nouveau MacBook Pro M4 Max avec 128 Go de mémoire unifiée.
Nexus Neural : Et si la perfection vous coûtait votre humanité ?
L'augmentation technologique n'est plus une fiction. Pour Étienne Marchant, c'est une arme contre l'impuissance.
Plongez dans un thriller psychologique où la frontière entre l'homme et la machine s'efface. Serez-vous prêt à en payer le prix ?
Commencer la lecture — Tome 1 à 0,99 $Le Model Context Protocol (MCP), c'est comme le port USB-C pour l'intelligence artificielle. Avant, chaque IA parlait sa propre langue pour accéder à vos fichiers ou à Internet. Avec le MCP, on a un standard universel qui permet à n'importe quel modèle — comme mon Qwen local — de brancher des "outils" externes de façon sécurisée et structurée. Si vous voulez approfondir, j'ai écrit un guide complet sur le MCP.
Le cimetière des solutions : 47 configurations plus tard
On ne passe pas d'un simple chat à un système de production sans casser quelques œufs. Pour arriver à la stabilité actuelle de mon projet ANNY, j'ai dû traverser un véritable champ de mines technique. J'ai testé plus de 12 modèles différents, allant des petits modèles de 3 milliards de paramètres (trop limités pour de la logique complexe) jusqu'aux géants de 70 milliards (trop lents pour un flux de travail fluide, même sur un M3 Max avec 48 Go de mémoire unifiée). J'ai vu des modèles "halluciner" des fonctions entières ou se perdre dans des boucles infinies de politesses inutiles.
Le plus grand sacrifice ? Ollama. Je sais, c'est l'outil chouchou de la communauté, et la version 0.19 avec l'intégration MLX est prometteuse en 2026. Mais pour mes besoins de production, Ollama était trop gourmand en ressources persistantes, même au repos. Quatre-vingt-seize gigaoctets de modèles pour quarante-huit de RAM disponible : le calcul ne fonctionnait pas. J'ai aussi abandonné LM Studio, qui est superbe visuellement, mais trop fermé pour une automatisation poussée.
Mon chemin m'a mené vers une implémentation MLX native — le framework open source d'Apple conçu spécifiquement pour ses puces M. C'est la différence entre traduire un livre avec Google Translate et le lire dans sa langue d'origine.
En passant d'une configuration Ollama standard à une optimisation MLX 4-bit native, ma consommation de RAM au repos est tombée à 0 Go (chargement à la demande), tout en maintenant une vitesse de pointe de 150 jetons par seconde en production (150 tok/s). C'est cinq fois plus rapide que ma configuration initiale à 25 tokens/seconde.
Le tableau des survivants
| Solution | Tokens/s | RAM repos | Verdict |
|---|---|---|---|
| Ollama + Llama 3.3 70B | 8-12 | 42 Go | Trop lent, trop lourd |
| Ollama + Qwen2.5-Coder 32B | 15-20 | 19 Go | Correct mais RAM excessive |
| LM Studio + Mistral 7B | 40-50 | 6 Go | Rapide mais trop limite |
| Ollama + Qwen2.5-Coder 14B | 25-30 | 12 Go | Bon modèle, mauvais runtime |
| MLX natif + Qwen2.5-Coder 14B-4bit (M3 Max 48 Go) | 100-150 | 0 Go au repos | Rapide, mais limité en qualité |
| MLX + Qwen2.5-Coder 32B 6-bit (M4 Max 128 Go) | 20-25 | ~32 Go | Config actuelle : qualité pro |
Le virage matériel : j'ai fini par craquer pour 128 Go
Pourquoi ne pas avoir attendu un Mac Studio ? La question est légitime. Pour mon usage, la portabilité reste non négociable. Je veux pouvoir raffiner mes modèles dans un café du Vieux-Québec ou sur la terrasse d'un chalet dans Charlevoix, sans sacrifier la puissance brute. En passant au MacBook Pro M4 Max au début de février 2026, je ne cherchais pas seulement un processeur plus rapide, je cherchais de l'espace de manœuvre. Avec 128 Go de mémoire unifiée, le terrain de jeu change complètement de dimension. On ne parle plus de « faire rouler » une IA, on parle de l'intégrer nativement dans son flux de production sans aucune friction.
Ce qui fait la force de cette machine, au-delà du nombre de cœurs, c'est sa bande passante mémoire phénoménale de 546 Go/s. En IA locale, c'est souvent le goulot d'étranglement principal. Plus les données circulent vite entre la mémoire et les unités de calcul, plus les réponses générées par le modèle sont fluides. Avec cette configuration, j'ai pu enfin charger des modèles massifs comme Llama 3.3 70B ou Qwen 2.5 72B en 6-bit, tout en gardant assez de ressources pour mes outils de développement, mon navigateur et mes conteneurs Docker.
- CPU : 16 cœurs (12 performance + 4 efficacité)
- GPU : 40 cœurs
- Neural Engine : 16 cœurs
- Mémoire unifiée : 128 Go à 546 Go/s
- Capacité théorique : jusqu'à 200 milliards de paramètres en 4-bit
L'avantage majeur de l'architecture d'Apple réside dans la gestion de la mémoire. Contrairement à un PC traditionnel où l'on doit copier les données de la RAM système vers la VRAM de la carte graphique, ici, tout le monde mange à la même table. Le CPU, le GPU et le Neural Engine puisent directement dans le même bassin de 128 Go. C'est ce qui permet de faire rouler des modèles qui demanderaient normalement deux ou trois cartes graphiques professionnelles très coûteuses sur une station de travail classique.
Imaginez une cuisine de grand restaurant. Dans un système classique, le frigo (RAM) est au sous-sol et le chef (GPU) doit attendre que les commis montent les ingrédients. Avec la mémoire unifiée du M4 Max, le frigo est directement dans la cuisine, à portée de main de tout le monde. Le chef, le pâtissier et le saucier se servent instantanément dans le même bac, sans perdre de temps à déplacer la nourriture.
À l'époque, sur mon M3 Max de 48 Go, j'avais arrêté mon choix sur Qwen 2.5 Coder 14B en quantification 4 bits. C'était le « sweet spot » de ce matériel : assez intelligent pour comprendre une architecture logicielle, mais assez léger (8-9 Go en usage) pour laisser de la place à mes autres applications. Pour ceux qui ont suivi mon deuxième article sur l'optimisation des performances, vous savez que la vitesse est cruciale. Mais la précision l'est encore plus. J'ai configuré des "presets" de température très stricts : 0,3 pour le codage pur afin d'éviter toute fantaisie, 0,4 pour la revue de code, et jusqu'à 0,6 pour l'architecture, où j'ai besoin d'un peu plus de créativité de la part de la machine.
Depuis que j'ai migré sur le M4 Max, ma configuration de prédilection s'est stabilisée sur Qwen 2.5 Coder 32B 6-bit MLX, qui tourne entre 20 et 25 tokens par seconde avec environ 32 Go de mémoire en charge (24 Go pour le modèle, le reste pour le contexte et le runtime). C'est le point d'équilibre idéal : la quantification 6-bit préserve davantage de précision que le 4-bit standard — un gain de qualité qui se sent immédiatement sur du code complexe. Combiné au score de 74 % sur le benchmark aider (contre 69 % pour la version 14B), j'obtiens un modèle local solide pour le code du quotidien, qui me dépanne très bien sur la plupart des tâches sans avoir à sortir du Mac.
Attention : faire rouler un modèle de 35 ou 70 milliards de paramètres sur un Mac, c'est grisant, mais si votre IA prend 10 secondes pour commencer à répondre (le "time to first token"), vous allez finir par retourner sur ChatGPT par frustration. L'IA locale doit être instantanée pour être utile.
8 agents, 1 cerveau : l'orchestration par LangGraph
Avoir une IA puissante, c'est bien. Avoir une équipe d'IA qui collabore, c'est une révolution. Pour ANNY, j'ai structuré mon backend avec Laravel 12 Octane pour la rapidité, mais le véritable chef d'orchestre est un script Python utilisant LangGraph. Imaginez une salle de réunion où chaque siège est occupé par un expert spécialisé. Au lieu d'avoir une seule IA qui essaie de tout faire (et qui finit par tout rater), j'ai divisé le travail en 8 agents autonomes.
Il y a le Planner, qui décompose ma demande en étapes logiques. Le Coder écrit le code, mais il ne peut pas le soumettre directement : il doit passer par le Reviewer, qui vérifie la qualité et la sécurité. Le Tester écrit et lance les tests unitaires dans un environnement isolé, tandis que le Debugger intervient uniquement si une erreur est détectée. On a même un agent Multi-file capable de comprendre comment un changement dans un fichier CSS peut briser un composant React à l'autre bout du projet. Et un agent Browser qui peut naviguer sur le web pour vérifier une documentation d'API récente.
L'IA traditionnelle, c'est un travailleur autonome à qui vous demandez de construire une maison seul. Mon système avec LangGraph, c'est un chef de chantier qui dirige des électriciens, des plombiers et des menuisiers. Le résultat est infiniment plus solide parce que chaque étape est vérifiée par un spécialiste.
Ce qui rend ce système unique, c'est que ces agents ne sont pas juste des "prompts" différents envoyés au même modèle. Ce sont des entités qui ont accès à mes 8 serveurs MCP personnalisés. Mon IA locale peut maintenant "voir" mon historique Git, fouiller dans ma documentation via un système RAG (Retrieval-Augmented Generation) basé sur GraphRAG, et même naviguer sur le web pour vérifier une documentation d'API récente.
L'orchestrateur LangGraph s'assure que le flux de travail ne part pas en vrille. Si le Reviewer rejette le code, il le renvoie au Coder avec des instructions précises. Ce cycle se répète jusqu'à ce que le résultat soit acceptable. C'est une forme de raisonnement itératif que même les plus gros modèles cloud ont parfois du mal à maintenir sans coûter une fortune en jetons. Chez moi, ça coûte exactement zéro dollar par mois, et ça fonctionne même quand le Wi-Fi du chalet décide de prendre une pause.
C'est ici que les 128 Go de mémoire montrent leur véritable utilité. Auparavant, avec 48 Go, la mémoire devenait vite un goulot d'étranglement dès que je lançais deux agents simultanément : le système basculait sur le swap et tout ralentissait. Aujourd'hui, je peux faire cohabiter un « cerveau » massif comme Qwen 72B (qui occupe environ 40 à 50 Go) avec des agents spécialisés plus légers comme Qwen 7B (4 Go) sans aucun ralentissement. Cette architecture multi-agents devient fluide : le gros modèle s'occupe de la stratégie globale tandis que les petits modèles exécutent les tâches de vérification ou de formatage en parallèle, le tout résidant confortablement dans la mémoire vive.
8 serveurs MCP faits maison : le système nerveux de mon IA
Le MCP, c'est le système nerveux qui relie le cerveau (Qwen) aux mains (les outils système). Sans lui, mon IA est un géant paralysé : elle peut penser, mais pas agir. J'ai codé 8 serveurs MCP personnalisés avec le SDK officiel @modelcontextprotocol/sdk, chacun gérant un domaine précis :
- Filesystem — lire, écrire et lister des fichiers de façon sécurisée, dans un périmètre restreint (sandboxé)
- Git — status, diff, commit, push. L'IA manipule le versionnage sans jamais toucher aux repos clients
- RAG / GraphRAG — rechercher, indexer et interroger ma base de connaissances techniques, vectorisée localement
- Security — audits de code, scans de vulnérabilités, chiffrement de fichiers sensibles
- Web — scraping léger et appels d'API publiques pour vérifier la documentation
- Data — traitement de CSV, JSON, calculs statistiques locaux
- Logs — monitoring des exécutions IA, debug en temps réel
- MacOS tools — intégration Calendar, Finder, notifications système
8 serveurs MCP, 47 outils exposés, 0 ligne de données qui quitte le Mac. Chaque serveur a ses gardes de sécurité intégrés : le Filesystem refuse les accès à /etc/passwd, et mon serveur Git applique un limiteur interne pour respecter les quotas GitHub (5 000 requêtes API/heure sur un compte personnel, plus les rate limits secondaires qui se déclenchent sur des rafales trop agressives). Mes agents IA attendent poliment — je ne veux pas qu'un script parti en boucle me fasse bloquer mon propre compte. C'est du sur mesure pour la conformité Loi 25, et pour ne pas me tirer dans le pied.
Le résultat ? Qwen peut maintenant agir comme un développeur senior : "Vérifie le diff Git du dernier commit, indexe ce PDF dans GraphRAG, génère les tests unitaires, commit et push sur la branche de dev." Tout local, zéro fuite, zéro facture cloud.
Le pont final : quand Claude Code appelle mon Mac
Voici la pièce maîtresse du puzzle. Mon serveur central anny-mcp, écrit en Node.js, expose l'IA locale comme un outil que les IA cloud peuvent appeler via le protocole MCP. Concrètement, quand je travaille dans Claude Code (l'outil CLI d'Anthropic), certaines tâches sont trop sensibles pour le cloud. Le code métier d'un client, une migration de base de données avec des identifiants réels, une analyse de logs contenant des informations personnelles.
Le flux est simple et élégant :
- Je formule ma demande dans Claude Code : "Implémente ce module avec mes librairies locales"
- Claude détecte que la tâche implique des données sensibles et délègue à anny-mcp
- anny-mcp route la demande vers Qwen locale, qui s'appuie sur les 8 serveurs MCP pour lire les fichiers, consulter le Git et interroger la documentation
- Qwen génère le code, le Filesystem l'écrit, Git le commit. Le résultat est renvoyé à Claude
- Claude orchestre la suite : revue de code, tests d'intégration, merge
C'est une architecture hybride : on délègue au cloud (Claude, GPT) l'orchestration créative et les tâches complexes, tout en gardant en local (Qwen + MCP) tout ce qui touche aux données sensibles. Ça permet de profiter de la puissance des gros modèles sans sacrifier la confidentialité.
Imaginez un grand cabinet d'avocats international. Pour les questions de stratégie globale, on consulte les associés seniors (Claude, GPT — les modèles cloud). Mais pour tout ce qui touche aux dossiers confidentiels du client, on travaille dans une salle sécurisée à l'interne, avec des avocats locaux de confiance (Qwen, MCP). Personne n'envoie les pièces du dossier par la poste.
Mon tableau de bord dans la barre de menu
Pour que tout ça roule sans accroc au quotidien, j'ai développé une petite application macOS en Python (empaquetée avec py2app) qui vit dans ma barre de menu. Un simple coup d'œil me donne l'état de santé de mon infrastructure : utilisation CPU, mémoire RAM, vitesse de génération en jetons par seconde, et le statut de chacun des 9 serveurs (anny-mcp + les 8 serveurs MCP).
Le bijou de l'ensemble, c'est le Resource Guard. C'est un système d'auto-régulation qui surveille la charge globale du Mac. Un petit daemon scrute la machine toutes les deux secondes. Si la RAM dépasse 85 % ou le CPU atteint 90 %, il met en pause les inférences de Qwen dans la foulée — pas instantanément, mais en deux à trois secondes, le temps que le signal atteigne le processus et que la génération en cours s'interrompe proprement. La reprise suit la même logique inverse : dès que la RAM retombe sous 70 %, le traitement redémarre en une à deux secondes. Cette marge d'hystérésis évite le yo-yo entre pause et reprise quand les ressources oscillent. Zéro crash, même sous charge intense avec trois agents qui travaillent en parallèle.
Ça tourne depuis quelque temps en production : stable, silencieux, et complètement autonome. Le matin, je jette un œil à la barre de menu, je vois 150 tok/s au repos, zéro dollar de cloud consommé, et je sais que mon "cerveau numérique" est prêt à travailler. Pour un développeur ou une petite équipe, c'est le genre d'outil qui permet enfin de dormir sur ses deux oreilles, en sachant que la logique métier reste bien à l'abri derrière le pare-feu. Pour les plus paranos, rien n'empêche de débrancher complètement internet pendant une session sensible : tout le pipeline — MLX, Qwen, les serveurs MCP locaux — continue de fonctionner sans broncher. Une fois le modèle téléchargé, il n'y a plus une seule requête qui part vers l'extérieur.
Ce que ça change concrètement
Récapitulons les gains mesurables de cette aventure :
- Coût mensuel : 0 $ (contre plusieurs centaines en API cloud)
- Confidentialité : conformité Loi 25, zéro donnée envoyée à l'extérieur
- Performance : 150 jetons/seconde en MLX natif, démarrage instantané
- Agents : 8 spécialistes qui collaborent via LangGraph
- Outils : 47 actions MCP disponibles (filesystem, Git, RAG, sécurité...)
- Architecture hybride : le cloud pour la stratégie, le local pour l'exécution sensible
Et 2026 s'annonce comme l'année de l'explosion de l'IA locale. Ollama 0.19 intègre enfin MLX nativement avec des gains de performance de 1,6x en pré-remplissage et 2x en décodage. Qwen3.5, le nouveau modèle d'Alibaba, repousse les limites du codage local. Et le MCP est en train de devenir le standard universel — Claude Code, Cursor, VS Code, tout le monde l'adopte.
L'IA locale n'est plus un simple terrain de jeu pour les curieux. C'est devenu une option viable, économique et surtout souveraine. Reprendre le contrôle de sa pile technologique demande un effort initial, mais la liberté que ça procure en vaut largement la peine. Ceux qui veulent franchir le pas mais qui n'ont pas envie de passer des semaines à tester des dizaines de configurations peuvent toujours m'écrire. J'aime bien échanger avec d'autres curieux de l'IA locale. Pour aller plus loin, explorez notre catégorie Intelligence artificielle ou la collection de nos outils gratuits pour développeurs.
— Stéphane Lapointe, développeur fullstack et passionné d'IA locale, Québec, avril 2026
Sources et références
Les chiffres et affirmations techniques de cet article sont tirés de sources officielles et de benchmarks communautaires vérifiés en avril 2026.
- Spécifications MacBook Pro M4 Max (128 Go, 546 Go/s, 16 CPU / 40 GPU / 16 Neural Engine) : apple.com/ca/fr — Mac
- Framework MLX (Apple Silicon, code ouvert) : github.com/ml-explore/mlx
- Modèles Qwen 2.5 Coder (14B, 32B, 6-bit MLX community) : huggingface.co/mlx-community
- Benchmark aider (scores code des modèles locaux vs cloud) : aider.chat/docs/leaderboards
- Model Context Protocol (standard ouvert d'Anthropic) : modelcontextprotocol.io
- LangGraph (orchestration multi-agents) : github.com/langchain-ai/langgraph
- Ollama 0.19 avec MLX (intégration native Apple Silicon) : ollama.com/blog
- Limites API GitHub (5 000 requêtes/heure pour comptes authentifiés) : docs.github.com — rate limits
- Loi 25 du Québec (protection des renseignements personnels) : Commission d'accès à l'information du Québec
- Qwen 3.5 (février 2026) : qwen.ai — Alibaba Cloud
Les benchmarks de tokens/seconde sont des extrapolations basées sur des rapports communautaires (Hugging Face, Reddit r/LocalLLaMA, blog Simon Willison) et peuvent varier selon la version de MLX, le contexte, la charge système et les paramètres de quantification. Pour des chiffres précis sur votre propre machine, testez directement avec mlx_lm.generate.
Questions fréquentes
Le logiciel est entièrement gratuit (Ollama, MLX, Qwen sont à code ouvert). Le seul investissement est le Mac lui-même. Un MacBook Pro M3 avec 36 Go de mémoire unifiée fait déjà très bien rouler les modèles de 7 à 14 milliards de paramètres (~40 tokens/seconde), ce qui couvre la majorité des tâches de développement au quotidien. Par contre, soyons honnêtes : ce n'est pas Claude.ai à la maison. Avec 36 Go, on oublie les modèles de 32B et plus (ils forcent le swap disque et deviennent inutilisables), on est limité à environ 16 000 jetons de contexte au lieu des 200 000 du cloud, on n'a pas de multimodal (images, audio, vidéo), et on reste figé dans le temps sur les connaissances du modèle. En contrepartie : zéro abonnement, zéro fuite de données, et ça tourne même sans internet. C'est un compromis — excellent pour le code du quotidien et les tâches privées, complémentaire (pas un remplaçant) pour le reste.
Non, mais c'est l'option la plus simple en 2026. Les puces Apple Silicon (M1 à M5) ont une mémoire unifiée qui partage la RAM entre le CPU et le GPU, ce qui est idéal pour les modèles d'IA. Sur Linux ou Windows, vous pouvez utiliser Ollama avec une carte graphique NVIDIA, mais la configuration est plus complexe et le rapport performance/watt est moins favorable.
Le Model Context Protocol (MCP) est un standard ouvert créé par Anthropic qui permet aux modèles d'IA de se connecter à des outils externes (fichiers, bases de données, API) de façon sécurisée et standardisée. C'est l'équivalent du port USB-C pour l'IA : un connecteur universel qui remplace les intégrations sur mesure. Lisez notre guide complet sur le MCP.
Pour le codage et les tâches techniques structurées, les modèles locaux comme Qwen 2.5 Coder 32B (et encore plus Qwen 3.5 Coder depuis février 2026) restent honorables sur des benchmarks précis (aider, HumanEval), mais ils ne jouent pas dans la même ligue que Claude Opus 4.6 ou GPT-5.4 sur les tâches longues ou agentiques. Pour la conversation générale, la créativité, la connaissance récente et le multimodal, les modèles cloud gardent une vraie avance. En pratique, je combine les deux : cloud pour la stratégie et les cas où la qualité prime, local pour l'exécution rapide et tout ce qui touche aux données sensibles. Ce n'est pas un remplacement, c'est une complémentarité. Sur l'évolution rapide des modèles cloud, voyez mon analyse de l'arrivée de GPT-5 et de la nouvelle ère de l'IA.
Absolument, et c'est même recommandé pour la conformité à la Loi 25 sur la protection des renseignements personnels. L'IA locale garantit que les données sensibles (code source, documents clients, informations personnelles) ne quittent jamais votre infrastructure. C'est une approche que plusieurs PME québécoises adoptent déjà, autant pour la conformité que pour la maîtrise des coûts. Pour aller plus loin, voyez pourquoi la Loi 25 est devenue un avantage concurrentiel caché.
Oui, clairement. Quand vous précisez le rôle, les contraintes et le format attendu, votre modèle local arrête de deviner et commence à livrer. Une étude Sprig de 2026 l'a mesuré : des instructions structurées améliorent significativement la pertinence des réponses et réduisent la réécriture de près de la moitié. Honnêtement, c'est le levier le plus sous-estimé que j'ai vu. Si vous voulez un point de départ concret, essayez notre constructeur de prompts gratuit : il structure vos instructions selon les mêmes principes en quelques clics.
Les données 2026 sont parlantes : les équipes qui structurent systématiquement leurs prompts atteignent un ROI de 2,5 à 3,5× comparé à celles qui improvisent. Le taux de réécriture passe de 15 % à 8 %, un écart statistiquement significatif (p < 0,001). Deux minutes investies dans vos instructions vous en sauvent trente en corrections. Pour aller plus vite, j'ai bâti un constructeur de prompts gratuit qui structure vos instructions en quelques clics selon ces bonnes pratiques. À lire aussi : pourquoi les meilleurs ingénieurs IA ignorent les prompts magiques.
Chaque fois que j'écris un prompt pour Qwen Coder local, je passe par ces quatre piliers :
- Rôle — « Tu es un développeur Python senior spécialisé en FastAPI. »
- Contraintes — « Pas de dépendances externes, compatible Python 3.12. »
- Format — « Retourne uniquement le code, avec des commentaires en français. »
- Exemples — « Voici un endpoint similaire comme référence : [extrait]. »
Quatre lignes, et le modèle local sait exactement où aller. J'ai détaillé cette approche dans mon article sur la vraie méthode du prompt engineering.
Commentaires (0)
Aucun commentaire pour le moment. Soyez le premier !