• Votre actu
    • Guide

    4 plateformes pour expérimenter avec l'IA et les LLMs en local

    Voir le panorama
    La plateforme sans publicité pour
    Profiter d'Internet
    Découvrez Netguide

    L'essor de l'intelligence artificielle et des modèles de langage de grande taille (LLMs) se traduit par la multiplication des plateformes permettant leur utilisation en local. LM Studio et Ollama offrent des applications de bureau pour télécharger, personnaliser et utiliser des LLMs open-source, tirant parti de la puissance des GPU et compatibles avec divers systèmes d'exploitation. Amazing AI, quant à elle, se spécialise dans la génération d'images via le modèle Stable Diffusion, optimisée pour les appareils Apple. Localy propose une expérience de génération de contenu textuel et vocal, avec des services adaptés à différents besoins. Ces outils démocratisent l'accès à l'IA avancée, ouvrant la voie à une créativité et une personnalisation sans précédent.

    • LM Studio propose une application de bureau pour expérimenter avec des modèles de langage de grande taille (LLMs) locaux et open-source. L'application permet de télécharger et d'utiliser des modèles compatibles ggml depuis Hugging Face, en exploitant la puissance du GPU. 
      LM Studio
    • Ollama propose une plateforme permettant d'installer et d'utiliser des modèles de langage de grande taille localement. Les utilisateurs peuvent personnaliser et créer leurs propres modèles, avec des versions disponibles pour macOS, Linux et Windows. 
      Ollama
    • Ce site propose une application permettant de générer des images à partir de textes via le modèle Stable Diffusion. Conçue pour les appareils Apple avec puce M1/M2, elle offre une expérience optimisée et sécurisée sans publicités. Compatible avec macOS et iOS récents. 
       Amazing AI
    • Localy propose une plateforme d'intelligence artificielle pour générer du contenu captivant. Elle offre des services de conversion de texte en parole et inversement, adaptés à différents plans d'abonnement. 
      Localy