{"id":1906,"date":"2026-04-01T19:25:06","date_gmt":"2026-04-01T17:25:06","guid":{"rendered":"https:\/\/www.gistlabs.net\/weblogs\/?p=1906"},"modified":"2026-04-01T19:44:30","modified_gmt":"2026-04-01T17:44:30","slug":"ollama-faire-tourner-lia-sur-son-propre-ordinateur","status":"publish","type":"post","link":"https:\/\/www.gistlabs.net\/weblogs\/ollama-faire-tourner-lia-sur-son-propre-ordinateur\/","title":{"rendered":"Ollama : faire tourner l&#8217;IA sur son propre ordinateur"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"522\" src=\"https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-1024x522.png\" alt=\"\" class=\"wp-image-1909\" srcset=\"https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-1024x522.png 1024w, https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-300x153.png 300w, https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-768x392.png 768w, https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-1536x783.png 1536w, https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-2048x1044.png 2048w, https:\/\/www.gistlabs.net\/weblogs\/wp-content\/uploads\/2026\/04\/embedding-models-847x432.png 847w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n<p>Faire tourner des mod\u00e8les d&#8217;intelligence artificielle sur son propre ordinateur, sans cloud, sans abonnement, sans envoyer ses donn\u00e9es \u00e0 personne \u2014 c&#8217;est la promesse d&#8217;<strong>Ollama<\/strong>. Avec plus de 166 000 \u00e9toiles sur GitHub, c&#8217;est devenu l&#8217;outil de r\u00e9f\u00e9rence pour ex\u00e9cuter des LLM en local.<\/p>\n<p><a href=\"https:\/\/ollama.com\" target=\"_blank\" rel=\"noopener\">Site officiel Ollama<\/a> | <a href=\"https:\/\/github.com\/ollama\/ollama\" target=\"_blank\" rel=\"noopener\">Code source sur GitHub<\/a><\/p>\n<p><!--more--><\/p>\n<h2>L&#8217;IA sans le cloud<\/h2>\n<p>Les grands mod\u00e8les de langage (LLM) comme ChatGPT ou Claude fonctionnent dans le cloud : vos requ\u00eates transitent par des serveurs distants. Ollama propose l&#8217;inverse : <strong>tout tourne sur votre machine<\/strong>. Vos donn\u00e9es restent chez vous, la connexion internet n&#8217;est m\u00eame pas n\u00e9cessaire une fois le mod\u00e8le t\u00e9l\u00e9charg\u00e9, et c&#8217;est enti\u00e8rement gratuit.<\/p>\n<h2>Installation en une commande<\/h2>\n<p>Sur macOS ou Linux :<\/p>\n<pre><code>curl -fsSL https:\/\/ollama.com\/install.sh | sh<\/code><\/pre>\n<p>Sur Windows, un installeur classique est disponible. Et c&#8217;est tout. Pas de Python \u00e0 configurer, pas de d\u00e9pendances \u00e0 g\u00e9rer, pas de Docker obligatoire.<\/p>\n<h2>Utilisation imm\u00e9diate<\/h2>\n<p>Lancer une conversation avec un mod\u00e8le :<\/p>\n<pre><code>ollama run gemma3<\/code><\/pre>\n<p>Ollama t\u00e9l\u00e9charge le mod\u00e8le automatiquement au premier lancement, puis le conserve en local. Parmi les mod\u00e8les disponibles :<\/p>\n<table>\n<thead>\n<tr>\n<th>Mod\u00e8le<\/th>\n<th>Param\u00e8tres<\/th>\n<th>Origine<\/th>\n<th>Usage<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td><strong>Gemma 3<\/strong><\/td>\n<td>4B \/ 12B \/ 27B<\/td>\n<td>Google<\/td>\n<td>G\u00e9n\u00e9raliste, multilingue<\/td>\n<\/tr>\n<tr>\n<td><strong>Qwen 3.5<\/strong><\/td>\n<td>0.8B \u00e0 397B<\/td>\n<td>Alibaba<\/td>\n<td>Raisonnement, code, 201 langues<\/td>\n<\/tr>\n<tr>\n<td><strong>DeepSeek-R1<\/strong><\/td>\n<td>7B \u00e0 671B<\/td>\n<td>DeepSeek<\/td>\n<td>Raisonnement avanc\u00e9<\/td>\n<\/tr>\n<tr>\n<td><strong>Llama 4<\/strong><\/td>\n<td>Scout \/ Maverick<\/td>\n<td>Meta<\/td>\n<td>G\u00e9n\u00e9raliste<\/td>\n<\/tr>\n<tr>\n<td><strong>Phi-4<\/strong><\/td>\n<td>14B<\/td>\n<td>Microsoft<\/td>\n<td>Compact et performant<\/td>\n<\/tr>\n<tr>\n<td><strong>Mistral<\/strong><\/td>\n<td>7B \/ 24B<\/td>\n<td>Mistral AI<\/td>\n<td>Fran\u00e7ais, europ\u00e9en<\/td>\n<\/tr>\n<tr>\n<td><strong>Code Llama<\/strong><\/td>\n<td>7B \/ 13B \/ 34B<\/td>\n<td>Meta<\/td>\n<td>Programmation<\/td>\n<\/tr>\n<tr>\n<td><strong>LLaVA<\/strong><\/td>\n<td>7B \/ 13B<\/td>\n<td>Community<\/td>\n<td>Vision (analyse d&#8217;images)<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>La liste compl\u00e8te est sur <a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">ollama.com\/library<\/a> \u2014 des centaines de mod\u00e8les disponibles.<\/p>\n<h2>Focus : Qwen 3.5, le champion open source<\/h2>\n<p>Sorti en f\u00e9vrier 2026, <strong>Qwen 3.5<\/strong> d&#8217;Alibaba est l&#8217;un des mod\u00e8les les plus impressionnants disponibles sur Ollama. Son vaisseau amiral, le <strong>Qwen3.5-397B-A17B<\/strong>, utilise une architecture Mixture-of-Experts (MoE) : 397 milliards de param\u00e8tres au total, mais seulement 17 milliards activ\u00e9s par requ\u00eate, ce qui le rend rapide malgr\u00e9 sa taille.<\/p>\n<p>Points forts :<\/p>\n<ul>\n<li><strong>Contexte massif<\/strong> \u2014 262 000 tokens nativement, extensible jusqu&#8217;\u00e0 1 million<\/li>\n<li><strong>201 langues<\/strong> support\u00e9es, dont le fran\u00e7ais<\/li>\n<li><strong>Vision int\u00e9gr\u00e9e<\/strong> \u2014 comprend texte et images dans le m\u00eame mod\u00e8le<\/li>\n<li><strong>Licence Apache 2.0<\/strong> \u2014 libre d&#8217;utilisation, y compris commerciale<\/li>\n<li><strong>Versions compactes<\/strong> \u2014 le Qwen3.5-4B tourne sur un laptop avec 8 Go de RAM<\/li>\n<\/ul>\n<pre><code>ollama run qwen3.5<\/code><\/pre>\n<h2>Une API REST int\u00e9gr\u00e9e<\/h2>\n<p>Ollama expose automatiquement une API REST locale sur le port 11434, compatible avec le format OpenAI. N&#8217;importe quelle application peut s&#8217;y connecter :<\/p>\n<pre><code>curl http:\/\/localhost:11434\/api\/chat -d '{\n  \"model\": \"gemma3\",\n  \"messages\": [{\"role\": \"user\", \"content\": \"Explique la relativit\u00e9\"}],\n  \"stream\": false\n}'<\/code><\/pre>\n<p>Des biblioth\u00e8ques officielles existent pour Python et JavaScript :<\/p>\n<pre><code>pip install ollama<\/code><\/pre>\n<pre><code>from ollama import chat\nresponse = chat(model='gemma3', messages=[\n    {'role': 'user', 'content': 'Pourquoi le ciel est bleu ?'}\n])\nprint(response.message.content)<\/code><\/pre>\n<h2>Claude Code et OpenClaw avec des mod\u00e8les locaux<\/h2>\n<p>Depuis janvier 2026, Ollama supporte l&#8217;<strong>API Anthropic Messages<\/strong>, ce qui permet de connecter directement <strong>Claude Code<\/strong> \u2014 l&#8217;agent terminal d&#8217;Anthropic \u2014 \u00e0 n&#8217;importe quel mod\u00e8le local. Concr\u00e8tement, vous b\u00e9n\u00e9ficiez de l&#8217;interface et des outils de Claude Code, mais avec un mod\u00e8le qui tourne sur votre machine. Aucun co\u00fbt API, aucune donn\u00e9e envoy\u00e9e au cloud.<\/p>\n<pre><code>ollama launch claude<\/code><\/pre>\n<p>Avec <strong>OpenClaw<\/strong>, Ollama se transforme en assistant IA personnel accessible depuis WhatsApp, Telegram, Slack ou Discord \u2014 le tout aliment\u00e9 par vos mod\u00e8les locaux :<\/p>\n<pre><code>ollama launch openclaw<\/code><\/pre>\n<p>Autres int\u00e9grations support\u00e9es :<\/p>\n<ul>\n<li><strong>Codex<\/strong> (OpenAI) \u2014 <code>ollama launch codex<\/code><\/li>\n<li><strong>Continue.dev<\/strong>, <strong>Open WebUI<\/strong>, <strong>Cursor<\/strong><\/li>\n<li>Toute application compatible avec l&#8217;API OpenAI (port 11434)<\/li>\n<\/ul>\n<p>Les mod\u00e8les recommand\u00e9s pour le code avec Claude Code : <strong>Qwen 3.5<\/strong> pour le raisonnement, <strong>GLM 4.7 Flash<\/strong> pour la vitesse, et <strong>Codestral<\/strong> pour Python. Un Mac avec 32 Go de RAM ou un GPU NVIDIA avec 16-24 Go de VRAM est recommand\u00e9 pour une exp\u00e9rience fluide.<\/p>\n<h2>Cas d&#8217;usage concrets<\/h2>\n<ul>\n<li><strong>Enseignement<\/strong> \u2014 faire d\u00e9couvrir l&#8217;IA aux \u00e9l\u00e8ves sans compte cloud ni RGPD \u00e0 g\u00e9rer<\/li>\n<li><strong>D\u00e9veloppement<\/strong> \u2014 compl\u00e9tion de code locale, review, g\u00e9n\u00e9ration de tests<\/li>\n<li><strong>Recherche<\/strong> \u2014 exp\u00e9rimenter avec diff\u00e9rents mod\u00e8les sans co\u00fbt API<\/li>\n<li><strong>Vie priv\u00e9e<\/strong> \u2014 analyser des documents sensibles sans les envoyer sur internet<\/li>\n<li><strong>Hors-ligne<\/strong> \u2014 IA disponible m\u00eame sans connexion (avion, zone blanche)<\/li>\n<\/ul>\n<h2>Configuration mat\u00e9rielle<\/h2>\n<p>Les mod\u00e8les les plus l\u00e9gers (3-4B param\u00e8tres) tournent sur un ordinateur modeste avec 8 Go de RAM. Pour les mod\u00e8les plus gros (70B+), un GPU avec beaucoup de VRAM est recommand\u00e9. Ollama g\u00e8re automatiquement l&#8217;acc\u00e9l\u00e9ration GPU (NVIDIA, AMD, Apple Silicon).<\/p>\n<p><strong>Liens :<\/strong><\/p>\n<ul>\n<li><a href=\"https:\/\/ollama.com\" target=\"_blank\" rel=\"noopener\">ollama.com \u2014 Site officiel<\/a><\/li>\n<li><a href=\"https:\/\/github.com\/ollama\/ollama\" target=\"_blank\" rel=\"noopener\">Code source sur GitHub<\/a><\/li>\n<li><a href=\"https:\/\/ollama.com\/library\" target=\"_blank\" rel=\"noopener\">Biblioth\u00e8que de mod\u00e8les<\/a><\/li>\n<li>Licence : MIT<\/li>\n<\/ul>","protected":false},"excerpt":{"rendered":"<p>Faire tourner des mod\u00e8les d&#8217;intelligence artificielle sur son propre ordinateur, sans cloud, sans abonnement, sans envoyer ses donn\u00e9es \u00e0 personne \u2014 c&#8217;est la promesse d&#8217;Ollama. Avec plus de 166 000 \u00e9toiles sur GitHub, c&#8217;est devenu l&#8217;outil de r\u00e9f\u00e9rence pour ex\u00e9cuter des LLM en local. Site officiel Ollama | Code source sur GitHub<\/p><p><a class=\"more-link btn\" href=\"https:\/\/www.gistlabs.net\/weblogs\/ollama-faire-tourner-lia-sur-son-propre-ordinateur\/\">Continue reading<\/a><\/p>\n","protected":false},"author":1,"featured_media":1909,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[524,9],"tags":[577,520,576,578,571,570,504],"class_list":["post-1906","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia","category-dev","tag-claude-code","tag-ia","tag-llm","tag-local","tag-ollama","tag-open-source","tag-python","item-wrap"],"_links":{"self":[{"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/posts\/1906","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/comments?post=1906"}],"version-history":[{"count":2,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/posts\/1906\/revisions"}],"predecessor-version":[{"id":1911,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/posts\/1906\/revisions\/1911"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/media\/1909"}],"wp:attachment":[{"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/media?parent=1906"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/categories?post=1906"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.gistlabs.net\/weblogs\/wp-json\/wp\/v2\/tags?post=1906"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}