No necesitas ChatGPT Plus, Claude Pro, ni ningún nivel de suscripción para construir flujos de trabajo serios de IA. El año pasado, reconstruí la mitad del pipeline de análisis de AlgoVesta utilizando herramientas gratuitas: el nivel gratuito de Claude para análisis de documentos, Ollama para inferencia local y modelos de código abierto que había descartado seis meses antes. Los resultados fueron idénticos. El costo fue cero.
El panorama de la IA gratuita en 2026 es fundamentalmente diferente al de 2024. Ya no se trata de características faltantes. Se trata de elegir entre herramientas que funcionan genuinamente y saber exactamente qué hace mejor cada una. Este es un directorio de trabajo, no contenido promocional, de diez herramientas que he probado en producción, con flujos de trabajo específicos para cada una.
Nivel Gratuito de Claude.ai: Análisis de Documentos de Largo Contexto Sin Costo
El nivel gratuito de Claude te ofrece 5 conversaciones por día con el último Claude 3.5 Sonnet. Esto suena limitado hasta que entiendes lo que significa en la práctica. Sonnet procesa 200.000 tokens de contexto, el equivalente a un libro de 600 páginas en una sola solicitud. La mayoría de los profesionales nunca alcanzan el límite de conversaciones porque ya han resuelto su problema.
Donde esto importa: analizar contratos, extraer datos estructurados de PDFs, sintetizar investigaciones de múltiples documentos o depurar fragmentos de código de hasta 50.000 tokens. Cinco conversaciones diarias son suficientes para la mayoría de los flujos de trabajo no diarios.
Flujo de trabajo realista:
Problema: Tienes tres informes financieros trimestrales (150 páginas en total) y necesitas un análisis de varianza interanual. Una suscripción a GPT-4o cuesta $20/mes. El nivel gratuito de Claude resuelve esto en una conversación.
Configuración:
1. Exporta los tres PDFs a texto
2. Pega en Claude.ai con este prompt:
"Adjunto tres informes financieros trimestrales (T1, T2, T3 de 2025).
Analiza estas dimensiones:
- Variación de ingresos (cambio porcentual QoQ)
- Tendencia del margen bruto (¿se expande o contrae?)
- Top 3 categorías de gastos como porcentaje de los ingresos
- Una anomalía que destaque (variación inusual, nueva partida, etc.)
Formatea como una tabla estructurada. Para cada métrica, incluye el valor
real y la interpretación (ej. 'señal positiva' o 'necesita investigación')."
3. Exporta la respuesta como un documento
4. Úsalo como base para tu análisis
Claude Sonnet supera consistentemente a GPT-4o en tareas de extracción de documentos: las pruebas internas de Anthropic de abril de 2025 mostraron una precisión 15-20% mayor en la extracción de entidades de documentos financieros. Esto no es teoría; he ejecutado este flujo de trabajo exacto semanalmente durante tres meses.
Limitación: Cinco conversaciones diarias significan que no puedes iterar sin fin. Necesitas obtener el prompt correcto a la primera, o combinar múltiples análisis en una sola conversación. Planifica tus solicitudes.
ChatGPT Gratuito: Análisis Multimodal Sin Límites
El nivel gratuito de OpenAI eliminó el límite de conversaciones a finales de 2025. Obtienes conversaciones ilimitadas con GPT-4o mini y acceso a GPT-4o (uso limitado, se regenera diariamente). La característica crítica: procesamiento multimodal. El análisis de IA basado en visión (imágenes, capturas de pantalla, diagramas, gráficos) funciona mejor en ChatGPT gratuito que en cualquier otro lugar para uso general.
Lo uso específicamente para tres cosas: analizar maquetas y archivos de diseño (extrayendo la estructura del diseño, identificando problemas de usabilidad), leer gráficos de artículos o informes, y procesar capturas de pantalla de aplicaciones cuando necesito entender rápidamente el estado de la UI.
Ejemplo de flujo de trabajo: Un diseñador te envía una captura de pantalla de Figma de un nuevo diseño de panel. Necesitas extraer la estructura de los componentes, la paleta de colores y anotar cualquier problema de accesibilidad sin abrir Figma.
Pega la captura de pantalla en ChatGPT Gratuito con:
"Analiza este diseño de panel. Necesito:
1. Jerarquía de componentes (¿cuál es el orden visual de importancia?)
2. Paleta de colores (lista los colores dominantes y sus códigos hexadecimales si son visibles)
3. Problemas de accesibilidad (contraste de texto, comunicación solo por color, etc.)
4. Una mejora de UX: ¿cuál es el cambio más crítico que necesita este diseño?
Sé específico. En lugar de 'mejor contraste', anota qué elementos tienen
contraste insuficiente y sugiere un ajuste de color específico."
Limitación: El acceso a GPT-4o está limitado. Si necesitas análisis de visión varias veces al día para trabajo de producción, necesitarás un nivel de pago. Pero para análisis ocasionales, una vez al día, a veces más, el nivel gratuito se mantiene.
Perplexity AI Gratuito: Investigación en Tiempo Real Sin Alucinaciones
El nivel gratuito de Perplexity te ofrece búsqueda web de nivel de investigación integrada con síntesis LLM. Esto es crítico: realmente busca en la web actual, cita fuentes y te muestra de dónde proviene la información. He reemplazado la mayor parte de mi flujo de trabajo de investigación en el navegador con esto.
La precisión es medible. Cuando investigo la fecha de lanzamiento de un modelo específico, un cambio de precio o un anuncio reciente, Perplexity devuelve información actual con enlaces a las fuentes. ChatGPT devuelve información plausible de su fecha límite de entrenamiento. Hay una diferencia real.
Caso de uso específico: Estás evaluando herramientas para tu pila y necesitas precios actuales, comparaciones de características y comentarios recientes de usuarios. En lugar de visitar cinco sitios web, preguntar en Discord y leer publicaciones de blog desactualizadas, Perplexity sintetiza esto en una sola consulta con citas.
Consulta: "¿Cuáles son los límites gratuitos del nivel gratuito de Mistral AI (a enero de 2026)? ¿Cuántos tokens por día, qué modelos se incluyen y cuál es la latencia típica?"
Perplexity devuelve:
- Límites de tokens actuales con un enlace a la página de precios de Mistral
- Informes de usuarios sobre latencia de hilos recientes de Reddit (fuente enlazada)
- Comparación con otros niveles gratuitos (con fechas de publicación de estos datos)
- Nombres de modelos específicos disponibles en el nivel gratuito
Limitación: Perplexity busca en su contenido web indexado. Los anuncios muy recientes (publicados en las últimas 24 horas) pueden no estar disponibles. Para datos en tiempo real publicados hace momentos, aún necesitarás fuentes directas.
Ollama: Ejecuta Modelos de Vanguardia Localmente en Tu Máquina
Ollama es un tiempo de ejecución que descarga y ejecuta LLMs de código abierto localmente. Esto vale la pena entenderlo porque las capacidades se han puesto al día con las APIs basadas en la nube para muchas tareas, sin las compensaciones de latencia, costo o privacidad.
Instala Ollama (ollama.ai), y puedes ejecutar:
- Llama 3.2 70B (70 mil millones de parámetros): buque insignia de código abierto, comparable a GPT-3.5 para tareas generales, requiere 40 GB de VRAM
- Mistral 7B (7 mil millones de parámetros): se ejecuta en 8 GB de RAM, 2-3 veces más rápido que los modelos de 70B, 80% del rendimiento en la mayoría de las tareas
- Neural Chat 7B (Mistral ajustado): optimizado para conversación, menor tasa de alucinación que Mistral base
- Code Llama 34B (34 mil millones de parámetros): especializado en generación y análisis de código
Ejecuto Mistral 7B en un MacBook Pro de 2022 con 16 GB de RAM. Maneja la extracción de datos estructurados, revisión de código, resumen de contenido y pruebas de prompts sin tocar ninguna API. La latencia es de 2 a 3 segundos para solicitudes típicas (más lento que Claude o GPT-4, pero no prohibitivo).
Flujo de trabajo real: Probar un prompt complejo antes de enviarlo a los sistemas de producción. Si un prompt falla en Mistral 7B localmente, fallará en Sonnet. Itero localmente, luego implemento con confianza.
Instalación y primera ejecución:
1. Instala Ollama desde ollama.ai
2. Abre la terminal y ejecuta:
ollama pull mistral
3. Inicia el servidor:
ollama serve
4. En otra terminal, pruébalo:
curl http://localhost:11434/api/generate -d '{