Quotidien Shaarli
September 28, 2025

PyGPT est un assistant IA de bureau open source conçu pour Windows et Linux. Entièrement écrit en Python, il se veut léger mais très polyvalent. L’idée est d’offrir un assistant personnel capable de discuter, analyser des images, générer de l’art, ou encore exécuter des agents autonomes, le tout via une interface simple et intuitive. Il fonctionne aussi bien hors ligne avec des modèles locaux que connecté à des modèles cloud comme GPT-5 ou Gemini.
Son atout majeur est sa multiplicité de modes : conversation classique, résumé de fichiers, génération d’images (DALL-E, Imagen), analyse en direct via webcam, agents autonomes pour des tâches complexes, commandes vocales, exécution de code Python ou intégration de services externes comme Google, GitHub ou Twitter. On y trouve aussi des fonctions pratiques comme la recherche web intégrée, les thèmes, le support multilingue et un éditeur de code avec coloration syntaxique.
Côté modèles, PyGPT jongle entre les grands noms du cloud (OpenAI, Google, Anthropic, xAI, Perplexity) et les solutions locales grâce à Ollama et LlamaIndex (Llama 3, Mistral, DeepSeek, etc.). Il prend même en charge la génération vidéo (Veo) et propose une configuration fine selon ton matériel.
L’installation reste simple : pip install pygpt-net pour Python, snap pour Linux, ou installateur MSI/ZIP pour Windows. Une fois lancé, tu peux ajouter tes clés API pour les modèles en ligne ou charger des modèles locaux. Les mises à jour sont fréquentes et le projet est ouvert aux contributions sur GitHub.
En résumé : PyGPT est un couteau suisse de l’IA de bureau, combinant créativité, productivité et contrôle, que tu sois un simple curieux ou un utilisateur avancé.

LM Studio est un logiciel gratuit qui permet de faire tourner des modèles d’IA (LLMs) directement sur son ordinateur, sans passer par des serveurs externes. Il fonctionne comme une plateforme tout-en-un : tu peux rechercher des modèles open source (Llama, Mistral, Gemma…), les télécharger en un clic et discuter avec eux localement. Résultat : confidentialité totale, puisque tes données restent sur ta machine.
L’application propose une interface simple, un hub pour parcourir les modèles, un mode chat fluide, et même un serveur local pour connecter l’IA à d’autres outils (comme VS Code ou des bots perso). Elle gère le format GGUF, l’accélération CUDA sur cartes NVIDIA RTX, et offre des réglages pour personnaliser les réponses. On peut aussi comparer plusieurs modèles côte à côte.
Côté technique, il suffit d’un PC ou Mac moderne : processeur quad-core, 8 à 16 Go de RAM, éventuellement une carte graphique pour accélérer les gros modèles. Chaque modèle prend environ 5 à 10 Go d’espace disque. LM Studio tourne sur Windows, macOS (Apple Silicon) et Linux, avec une installation légère et rapide.
En résumé : c’est une boîte à outils locale pour tester, apprendre et créer avec l’IA, accessible aux étudiants, développeurs ou curieux qui veulent garder le contrôle et éviter le cloud.