Archive des étiquettes : modele

Ollama : Intégration de LLMs en local

Qu’est-ce qu’Ollama ? Ollama est une plateforme open-source permettant d’exécuter et d’intégrer facilement des modèles de langage avancés (LLMs) en local sur un ordinateur ou un serveur. Conçue pour les développeurs et les chercheurs, Ollama simplifie l’utilisation de l’intelligence artificielle sans dépendre d’une infrastructure cloud. Principales caractéristiques 1. Exécution locale des modèles Ollama permet de …

Trucs et Astuces

Swapfile Pour les raspberry de faible capacité mémoire (par exemple: le raspberry A+ a 512 Mo de ram), la mémoire swap peut être insuffisante. En effet la mémoire swap par défaut est de 100 Mo. Pour l’augmenter, éditer le fichier de configuration suivant : sudo nano /etc/dphys-swapfile Modifier la ligne : CONF_SWAPFILE=100 Remplacer la valeur 100 …