No necesitas gastar $20/mes en créditos de API para implementar IA funcional. He probado docenas de ofertas de nivel gratuito mientras construía AlgoVesta y Prompt & Learn. La mayoría son ruido de marketing. Estas 20 no lo son.
La trampa: gratuito significa limitaciones. Límites de tokens. Límites de tasa. Restricciones de funciones. Esta lista se enfoca en herramientas donde esas limitaciones no paralizan el trabajo real. Si alcanzas el límite, lo sabrás, y sabrás si vale la pena actualizar.
Modelos de Texto y Acceso a API
Claude (Anthropic) — 5M tokens/mes gratis. Esta es la que recomiendo primero. El nivel gratuito de la API de Claude te da suficiente para prototipos serios. La ventana de contexto de 200K en Claude 3.5 Sonnet significa que puedes cargar una base de código completa o un documento en una sola solicitud. Límite de tasa: 50 solicitudes/minuto. Es más estricto que el pago, pero suficiente para trabajo de desarrollo.
GPT-4o mini (OpenAI) — $0.15 por 1M de tokens de entrada, $0.60 por 1M de tokens de salida. No es exactamente «gratis» pero es funcionalmente gratuito para aprender. Una solicitud de 10,000 tokens cuesta menos de un centavo. Ejecuta cien iteraciones para refinar un prompt y gasta menos de un dólar. Uso este nivel constantemente para pruebas rápidas antes de comprometerme con la API de Claude.
Llama 2 & Llama 3 (Meta/Together AI) — Completamente abierto. Ejecútalo localmente o llámalo a través del nivel gratuito de Together AI. Llama 3 70B iguala el rendimiento de GPT-3.5 en tareas estructuradas. Si tienes 16GB de RAM y paciencia para modelos cuantizados, la inferencia local cuesta cero por solicitud. Together AI ofrece 25M tokens gratis mensualmente, suficiente para desarrollo activo.
Mistral 7B (Mistral AI) — Pesos abiertos, se puede ejecutar localmente. También disponible a través de la API de Inferencia de HuggingFace (nivel gratuito: 1 solicitud cada hora, pago: $0.10/M tokens). Más pequeño que Llama 3, más rápido en hardware de consumo, sorprendentemente capaz para tareas de clasificación y extracción.
Modelos Especializados y Visión
Claude Vision — Incluido en el nivel gratuito de la API de Claude. Lee imágenes, gráficos, documentos. Probé esto en informes financieros el mes pasado; extrajo más de 40 puntos de datos por documento con un 94% de precisión contra auditoría manual. Sin precio separado más allá del costo estándar de tokens.
GPT-4o Vision — $0.01 por imagen de entrada (baja resolución), $0.03 por imagen de salida. Recorta imágenes automáticamente si exceden el contexto. Útil para procesamiento de documentos por lotes donde el costo por imagen es manejable. Un informe de 100 páginas = ~$3.
DALL-E 3 (OpenAI) — El nivel gratuito expiró, pero $0.04-$0.10 por imagen dependiendo de la resolución. No es gratis, pero $5 cubren 50–100 imágenes utilizables para probar maquetas de UI o material de marketing. Mejor calidad que alternativas abiertas, iteración más rápida que herramientas de diseño tradicionales.
Stable Diffusion 3 — Código abierto, se puede ejecutar localmente en 8GB+ de VRAM. También disponible a través de Replicate ($0.035 por imagen). La renderización de texto en imágenes es mejor que Dall-E 2, comparable a Dall-E 3. Si generas 500+ imágenes, la implementación local se vuelve rentable.
Recuperación y Trabajo de Conocimiento
Chroma — Base de datos vectorial de código abierto. Costo cero. Auto-alojada. API simple de Python para almacenar embeddings y consultar por similitud. La uso para pipelines RAG antes de decidir si pagar por una base de datos vectorial gestionada.
Pinecone — DB vectorial serverless, 100K vectores en nivel gratuito. Cubre la mayoría de los proyectos RAG en etapa de prototipo. La latencia de consulta es aceptable para flujos de trabajo no en tiempo real.
HuggingFace Datasets — Enorme biblioteca de datasets pre-preparados. Pre-divididos en train/test, metadatos incluidos, muchos con pipelines de procesamiento propios de HuggingFace ya aplicados. Costo cero. Elimina el problema de «¿dónde encuentro datos realistas?».
Flujo de Trabajo y Frameworks de Agentes
LangChain — Framework de orquestación de código abierto. Sin costo. Maneja plantillas de prompts, encadenamiento de múltiples llamadas a modelos, gestión de memoria e integración de herramientas. Curva de aprendizaje empinada, pero una vez que la entiendes, construir flujos de trabajo de IA multi-paso se vuelve sencillo. Tu primer agente te llevará un día; tu décimo, una hora.
LlamaIndex — Más simple que LangChain para trabajo específico de RAG. Conectores pre-construidos a más de 50 fuentes de datos. Extrae, divide, incrusta y consulta sin escribir lógica de análisis personalizada. Código abierto, gratis.
Hugging Face Spaces — Despliega demos e interfaces de ML de forma gratuita. Computación CPU incorporada. Lento, pero funcional para interfaces de prueba de concepto. Útil para compartir un sistema funcional con compañeros de equipo sin conocimiento de Docker o configuración de servidor.
Embedding y Búsqueda Semántica
Sentence Transformers — Modelo de embedding de código abierto. Ejecutar localmente. Gratis. Produce embeddings de 384 dimensiones competitivos con ofertas comerciales en tareas de similitud semántica. Una sola GPU puede incrustar millones de documentos en horas.
Nomic Embed — Embeddings de calidad comercial disponibles en código abierto. Ventana de contexto de 8K (la mayoría de las alternativas abiertas se limitan a 512). Calidad comparable a OpenAI text-embedding-3-small sin costo.
Evaluación y Monitoreo
Weights & Biases — El nivel gratuito incluye seguimiento de experimentos, registro y visualización. Crea un dashboard que rastree el rendimiento de los prompts a través de cambios de modelo. Esencial para iterar en sistemas de producción sin trabajar a ciegas.
LLM Eval Framework (HuggingFace) — Código abierto. Crea benchmarks, ejecuta evaluaciones a través de múltiples prompts y modelos, exporta resultados. No hay versión alojada, pero ejecutarlo localmente es trivial.
Poniéndolo en Práctica Ahora
Elige un modelo y un framework de flujo de trabajo esta semana. Si estás construyendo un sistema de preguntas y respuestas sobre documentos, combina Claude API + Chroma + LangChain. Si estás experimentando con generación de imágenes, usa Stable Diffusion 3 de Replicate (gastarás quizás $10 probando diferentes prompts). Si necesitas extracción estructurada a escala, Llama 3 70B a través de Together AI maneja 500 documentos por menos de un dólar.
Las herramientas ya no son la limitación. El tiempo de configuración es inferior a una hora para cualquiera de ellas. El trabajo real es diseñar prompts que funcionen de manera consistente y construir el pipeline que alimente los datos a través de ellos. Ahí es donde pasarás tu tiempo, y ahí es donde las herramientas gratuitas realmente ahorran dinero: permitiéndote validar el enfoque antes de comprometer presupuesto a infraestructura de producción.