Themes

Faire fonctionner des LLM en local sur votre ordinateur avec OLlama

Tags de cet article : Ollama;LLM;AI;FR
8 lectures

Avez vous déjà eu envie de faire tourner un LLM tel que ChatGPT, mais sur votre propre machine ?
Et si je vous disait que c'est possible grâce à Ollama, un moteur de LLM open source conçu par Meta capable de fonctionner sur n'importe quel ordinateur
Dans cet article, je vais vous montrer quel est l'intérêt d'Ollama, comment l'installer et comment l'utiliser.

Pourquoi installer Ollama ?

La première question que vous êtes en droit de vous poser est : pourquoi devrais-je installer Ollama ?
Et bien, il y a beaucoups de raison d'installer ce système de LLM. Premièrement, fournir des documents confidentiels à ChatGPT n'est généralement pas bien vu par les entreprises, car OpenAI pourrais y avoir accès.
Avec Ollama, pas de problème car tout le système tourne directement sur votre appareil, ce qui garentis la confidentialité des données envoyées aux modèles.
La seconde raison, et c'est celle pour laquelle j'ai moi-même installé Ollama, vous concerne si vous êtes un développeur souhaite=ant intégrer l'IA dans ses projets.
Vous pouvez utiliser l'API OpenAI, mais elle coûte son prix (30$ par jeton généré pour la version GPT-4 Turbo).
Avec Ollama, tous les modèles tournent sur votre machine, il n'y a donc pas de frais.

Installer Ollama

Maintenant que vous êtes convaincus d'utiliser Ollama, vous devez vous demander comment l'installer sur votre ordinateur.
C'est très simple. Pour cela, rendez-vous sur la page de téléchargements. Puis, choisissez votre OS dans le menu. Enfin, suivez les instructions d'installation.

Utiliser Ollama

Ca y est, le moteur de LLM est installé sur votre ordinateur. Pour pouvoir l'utiliser, il faut installer des modèles.
Il existe une centaine de modèles disponibles, mais mes préférés sont Mistral, LLaMa3 et LLaVa (un modèle multimodal)
Pour installer et utiliser un modèle, utilisez la commande ollama run [nom du modèle]

Voilà ! vous savez tout sur Ollama ! Découvrez comment utiliser cet outil dans vos programmes dans cet article
BONNES CONVERSATIONS !