Il n’est pas nécessaire de souscrire à un abonnement pour construire des flux de production. Passez trois mois à tester chaque niveau gratuit qui existe, et vous réaliserez que la plupart d’entre eux fonctionnent mieux que les versions payantes pour des tâches spécifiques — ils sont simplement moins performants pour les choses pour lesquelles les gens paient.
Ce n’est pas une liste de « 20 alternatives gratuites à ChatGPT ». Ce sont 20 outils dont le niveau gratuit n’est pas une démo limitée. Vous pouvez réellement produire avec ceux-ci.
Génération de Texte & Code
Claude (Claude.ai, niveau gratuit). Anthropic vous accorde 5 messages toutes les 8 heures sur Claude 3.5 Sonnet via l’interface web. Pas suffisant pour la production, mais parfait pour tester avant de dépenser de l’argent sur l’API. La contrainte force l’efficacité — vous écrivez des prompts plus concis. Testez votre idée ici d’abord.
ChatGPT (gratuit, GPT-4o mini). OpenAI a basculé son niveau gratuit vers gpt-4o-mini fin 2024. Vous obtenez 3 heures de GPT-4o toutes les 3 jours, plus un accès illimité à gpt-4o-mini. Pour l’extraction structurée, la classification et les résumés courts, gpt-4o-mini comble 90 % de l’écart avec le GPT-4o complet pour 95 % de coût en moins. Commencez ici avant de passer au modèle 4o.
Llama 2 & 3 (Meta, diverses plateformes). Téléchargez-le gratuitement. Exécutez-le localement sur 16 Go de RAM avec llama.cpp ou Ollama. Pas de coûts d’API, pas de suivi d’utilisation, pas de limites de débit. Pour les outils internes et les expériences, cela élimine la question de savoir s’il faut passer à un niveau payant — il n’y a pas de niveau. La latence est plus importante que la vitesse ici ; les réponses prennent 10 à 30 secondes localement contre 1 à 2 secondes sur une API cloud. Le compromis est réel.
Mistral 7B (gratuit, Hugging Face). Inférence plus rapide que Llama 3 sur le même matériel. Meilleur pour la sortie structurée et l’appel de fonction que ce que l’on pourrait attendre d’un modèle 7B. Le niveau gratuit de l’API Mistral vous donne des tokens limités, mais la version Hugging Face est illimitée. Si vous avez besoin de tâches d’extraction rapides, locales et fiables, cela surpasse les modèles plus grands pour le ratio vitesse-précision.
Kits d’Outils de Prompting & Itération
Prompt Testing (modèles PromptAndLearn). Ce site publie des modèles de prompts pour des tâches courantes — extraction, résumé, classification, ancrage. Pas un outil, mais une bibliothèque. Copiez le modèle, adaptez-le à votre domaine, testez-le sur le niveau gratuit de Claude ou ChatGPT avant de passer à la production.
LangChain (open source). Framework pour chaîner les appels LLM avec la récupération, la mémoire et les outils externes. Gratuit. Auto-hébergé. La courbe d’apprentissage est abrupte, mais une fois que vous comprenez le schéma de chaîne de pensée qu’il permet, vous arrêtez de penser au LLM comme une boîte autonome et commencez à le penser comme un composant d’un système plus vaste.
LlamaIndex (open source). Plus simple que LangChain pour une tâche spécifique : connecter un LLM à vos données. Si vous construisez du RAG — génération augmentée par récupération — et que vous ne voulez pas coder manuellement la logique de découpage, d’intégration et de récupération, LlamaIndex s’en charge. Gratuit. Fonctionne avec des modèles locaux ou des API cloud.
Embeddings & Recherche Vectorielle
Sentence Transformers (open source). Générez des embeddings localement gratuitement. Des modèles comme all-MiniLM-L6-v2 fonctionnent sur CPU et transforment le texte en vecteurs de 384 dimensions. Combiné avec le niveau gratuit de Chroma ou Pinecone, vous disposez d’une base de données vectorielle fonctionnelle sans payer pour les embeddings. Le compromis : les embeddings des modèles ouverts se classent légèrement moins bien que ceux d’OpenAI ou de Cohere sur les benchmarks de similarité sémantique, mais la différence de coût le justifie pour la plupart des usages internes.
Chroma (open source, auto-hébergé). Base de données vectorielle en mémoire. Gratuit. Aucune dépendance externe. Chargez vos embeddings, interrogez-les. Idéal pour prototyper des pipelines RAG avant de s’engager avec Pinecone ou Weaviate. Fonctionne sur votre ordinateur portable.
Pinecone (niveau gratuit, cloud). 1 pod, 100K vecteurs, dimensions limitées. Suffisant pour tester si la recherche vectorielle résout votre problème avant de passer à la version supérieure. Payez quand vous savez que vous en avez besoin.
Transcription & Audio
Whisper (open source, OpenAI). Téléchargez-le. Exécutez-le localement. Transcrivez des fichiers audio et vidéo gratuitement. La précision est suffisante pour un travail de production — plus rapide et plus précise que la plupart des alternatives commerciales. Le niveau gratuit n’a pas de limites d’utilisation. La transcription sur CPU prend du temps (5 minutes d’audio prennent ~1 à 2 minutes à traiter), mais vous ne payez jamais pour l’inférence.
Xtreme Audio (niveau gratuit). Synthèse vocale dans plus de 100 langues. 10 minutes par mois gratuites. Limité, mais fonctionnel pour tester des flux vocaux avant de passer à eleven-labs ou similaire.
Génération d’Images & Vision
Stable Diffusion (open source, auto-hébergé). Générez des images gratuitement. Exécutez-le localement avec Automatic1111 WebUI ou via les espaces Hugging Face. Pas de limites de débit, pas de coût, pas de suivi. La qualité de l’image est en retrait par rapport à DALL-E 3 ou Midjourney, mais l’écart se réduit chaque mois. Pour les maquettes internes, l’art conceptuel et les tests, c’est suffisant.
CLIP (open source, OpenAI). Embeddings vision-texte. Comprenez ce qu’il y a dans une image sans l’envoyer à une API externe. Gratuit. Open source. Fonctionne localement. Utilisez-le pour la classification d’images ou pour rechercher des bibliothèques d’images par signification sémantique.
Fine-Tuning & Entraînement de Modèles
Unsloth (open source). Fine-tunez des modèles ouverts 2 à 5 fois plus rapidement avec 80 % de mémoire en moins. Framework gratuit. Combinez-le avec un modèle local et vous pouvez fine-tuner sur du matériel qui serait autrement trop lent ou trop cher. Vrai compromis : le fine-tuning prend des heures au lieu de minutes, et les résultats dépendent fortement de la qualité de vos données d’entraînement.
Gestion des Données & Connaissances
Obsidian (gratuit pour usage local). Pas un outil IA, mais conçu pour fonctionner avec l’IA. Connectez-le à des LLM locaux ou des API. Utilisez-le pour alimenter vos propres notes dans des systèmes RAG. La visualisation graphique vous aide à repérer les lacunes dans vos connaissances avant de les transmettre au modèle.
Notion AI (niveau gratuit, limité). Générez des résumés et des plans à partir de vos propres pages Notion. Le niveau gratuit est limité en tokens, mais utile pour un travail de résumé rapide sans quitter votre base de connaissances.
Tâches Spécialisées
Hugging Face (plateforme, nombreux modèles gratuits). Hébergez vos propres modèles ouverts via leur API. Le niveau gratuit est généreux : l’inférence est lente mais fiable. Téléchargez votre propre modèle fine-tuné. Les modèles communautaires sont disponibles immédiatement.
Replicate (niveau gratuit avec crédits). Exécutez des modèles ouverts via une API au lieu de gérer votre propre infrastructure. Les crédits gratuits couvrent une quantité surprenante de travail de test.
Par Où Commencer
Si vous commencez aujourd’hui : utilisez le niveau gratuit de Claude pour écrire et tester vos prompts. Utilisez Llama 3 localement via Ollama pour voir si vos prompts fonctionnent sur un modèle ouvert. Utilisez Sentence Transformers + Chroma si vous avez besoin de récupération. Utilisez Whisper si vous traitez de l’audio. Testez l’approche avant de payer.
La contrainte du niveau gratuit impose la clarté. Vous écrivez le prompt trois fois avant de l’envoyer car vous n’avez que cinq messages. Vous concevez le flux de travail correctement dès la première fois car vous ne gaspillez pas de tokens sur une API coûteuse. Passez au payant lorsque le niveau gratuit devient un goulot d’étranglement, pas un instant plus tôt.