Chain-of-thought (CoT) prompting es una técnica que cambió fundamentalmente los resultados de los modelos de lenguaje en tareas complejas. La idea es simple: en lugar de pedirle a la IA solo la respuesta final, le pides que muestre su proceso de razonamiento paso a paso. Los resultados en precisión para problemas complejos mejoran entre un 30% y un 80% según benchmarks publicados por Google y Anthropic. ## Por qué funciona Los modelos de lenguaje son predictores de texto. Cuando generan una respuesta directa a un problema complejo, la "solución" aparece antes de que el modelo haya procesado todos los pasos necesarios para llegar a ella. Al forzar la generación de razonamiento intermedio, el modelo tiene más "espacio" para procesar la lógica correctamente antes de comprometerse con una respuesta final. ## Cómo activarlo La forma más simple es agregar al final de tu prompt: "Piensa paso a paso antes de responder." o "Explica tu razonamiento de forma detallada." Con modelos modernos como Claude 3 Opus, GPT-4 o Gemini Pro, esto es suficiente para activar el modo de razonamiento extendido. Para casos más críticos, puedes usar el formato few-shot: proporciona un ejemplo de problema con su cadena de razonamiento completa antes de presentar el problema real que quieres resolver. ## Cuándo es especialmente útil CoT brilla en matemáticas y lógica (cálculos con múltiples pasos), análisis de código (encontrar bugs en funciones complejas), razonamiento causal (evaluar si A causa B dada una serie de hechos), planificación (generar un plan de proyecto con dependencias) y preguntas que tienen trampas no obvias. ## Cuándo no es necesario Para tareas simples como traducir una frase o resumir un párrafo corto, CoT agrega verbosidad sin mejorar el resultado. La técnica tiene mayor impacto cuando la tarea requiere múltiples pasos lógicos para llegar a la respuesta correcta. ## Variantes avanzadas **Tree of Thoughts**: En lugar de una cadena lineal, el modelo explora múltiples ramas de razonamiento y elige la más prometedora. Útil para problemas de optimización. **Self-consistency**: Genera la misma pregunta múltiples veces con CoT y selecciona la respuesta que aparece con más frecuencia. Reduce errores aleatorios en tareas críticas. **Zero-shot CoT**: Solo agrega "Piensa paso a paso" sin ejemplos. Funciona sorprendentemente bien con modelos de última generación y es la implementación más rápida de adoptar.