Zero-shot, ejemplos, CoT, ToT y RAG: qué patrón conviene según el problema

Aprende a elegir la técnica de prompting adecuada según la tarea: desde pedir algo directo hasta encadenar razonamiento o recuperar información externa con RAG.

Después de construir un briefing claro, la siguiente decisión no es “qué modelo es mejor”, sino “qué patrón de trabajo necesita esta tarea”. No todas las peticiones exigen el mismo tipo de prompting.

A veces basta con pedir algo de forma directa. Otras veces conviene dar ejemplos. En tareas más complejas, merece la pena forzar razonamiento paso a paso, dividir el problema o conectar la respuesta con documentos externos.

Elegir bien el patrón importa porque afecta a tres cosas a la vez: precisión, coste y latencia. Un enfoque demasiado simple puede alucinar. Uno demasiado pesado puede ser lento, caro o innecesario.

La buena práctica no consiste en usar siempre la técnica más sofisticada. Consiste en aplicar la mínima complejidad que te da una salida suficientemente fiable para el trabajo que tienes delante.

  • Si quieres un titular, una tabla simple o una primera estructura de landing, normalmente basta con zero-shot bien delimitado. Meter CoT aquí suele añadir ruido y coste sin mejorar gran cosa.
  • Si quieres que la IA redacte fichas de producto siguiendo un estilo editorial concreto, few-shot tiene más sentido: enseñas dos o tres ejemplos y la alineación sube mucho.
  • Si debes comparar tres ideas de negocio con criterios de mercado, coste y complejidad, Chain-of-Thought o prompt chaining ayudan a no saltarse pasos. Y si, además, necesitas contrastar la respuesta con un dossier interno, RAG pasa a ser la opción sensata.
  • Usa zero-shot cuando la tarea sea clara y el coste de error sea bajo.
  • Usa ejemplos cuando la forma de la respuesta importe tanto como el contenido.

Cinco patrones, cinco situaciones distintas

Casos resueltos de elección de patrón

Si quieres un titular, una tabla simple o una primera estructura de landing, normalmente basta con zero-shot bien delimitado. Meter CoT aquí suele añadir ruido y coste sin mejorar gran cosa.

Si quieres que la IA redacte fichas de producto siguiendo un estilo editorial concreto, few-shot tiene más sentido: enseñas dos o tres ejemplos y la alineación sube mucho.

Si debes comparar tres ideas de negocio con criterios de mercado, coste y complejidad, Chain-of-Thought o prompt chaining ayudan a no saltarse pasos. Y si, además, necesitas contrastar la respuesta con un dossier interno, RAG pasa a ser la opción sensata.

Cómo decidir sin sobrediseñar el prompt

  • Usa zero-shot cuando la tarea sea clara y el coste de error sea bajo.
  • Usa ejemplos cuando la forma de la respuesta importe tanto como el contenido.
  • Usa razonamiento guiado cuando haya varios criterios o pasos que no deben perderse.
  • Usa ToT o exploración de alternativas cuando la decisión tenga caminos realmente distintos.
  • Usa RAG cuando la respuesta deba apoyarse en fuentes concretas, actuales o privadas.

Lo que dicen las guías oficiales

Anthropic recomienda <a href="https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/chain-of-thought" target="_blank" rel="noopener noreferrer">dejar pensar a Claude cuando la tarea realmente lo necesita</a> y <a href="https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/chain-prompts" target="_blank" rel="noopener noreferrer">encadenar prompts complejos</a> cuando un único mensaje pierde foco.

OpenAI también insiste en que el prompting debe ajustarse al problema, no al revés. Por eso esta lección enlaza directamente con la siguiente: revisar salidas es la única forma de saber si la técnica elegida estaba justificadamente bien o era excesiva.

Vibe Coding
06

Zero-shot, ejemplos, CoT, ToT y RAG: qué patrón conviene según el problema

Aprende a elegir la técnica de prompting adecuada según la tarea: desde pedir algo directo hasta encadenar razonamiento o recuperar información externa con RAG.

Código del tema: zero-shot + few-shot + CoT + ToT + RAG

📘 Teoría

Cinco patrones, cinco situaciones distintas

1

Zero-shot

Útil cuando la tarea es clara, simple y el modelo ya tiene suficiente conocimiento general. Si pides demasiado en este modo, aumentas la imprecisión.

2

Few-shot

Conviene cuando necesitas que el modelo imite estructura, tono o formato. Los ejemplos reducen ambigüedad y alinean expectativas.

3

Chain-of-Thought

Ayuda cuando el problema exige descomponer pasos o razonar con varios factores. No siempre hace falta, pero mejora tareas complejas.

4

Tree of Thoughts

Encaja cuando hay varios caminos posibles y conviene explorar alternativas antes de decidir. Es más costoso, pero útil para decisiones estratégicas.

5

RAG

Sirve cuando la respuesta depende de documentos concretos, datos privados o información actualizada que no conviene dejar a la memoria general del modelo.

Casos resueltos de elección de patrón

Si quieres un titular, una tabla simple o una primera estructura de landing, normalmente basta con zero-shot bien delimitado. Meter CoT aquí suele añadir ruido y coste sin mejorar gran cosa.

Si quieres que la IA redacte fichas de producto siguiendo un estilo editorial concreto, few-shot tiene más sentido: enseñas dos o tres ejemplos y la alineación sube mucho.

Si debes comparar tres ideas de negocio con criterios de mercado, coste y complejidad, Chain-of-Thought o prompt chaining ayudan a no saltarse pasos. Y si, además, necesitas contrastar la respuesta con un dossier interno, RAG pasa a ser la opción sensata.

Cómo decidir sin sobrediseñar el prompt

  • Usa zero-shot cuando la tarea sea clara y el coste de error sea bajo.
  • Usa ejemplos cuando la forma de la respuesta importe tanto como el contenido.
  • Usa razonamiento guiado cuando haya varios criterios o pasos que no deben perderse.
  • Usa ToT o exploración de alternativas cuando la decisión tenga caminos realmente distintos.
  • Usa RAG cuando la respuesta deba apoyarse en fuentes concretas, actuales o privadas.

Lo que dicen las guías oficiales

Anthropic recomienda dejar pensar a Claude cuando la tarea realmente lo necesita y encadenar prompts complejos cuando un único mensaje pierde foco.

OpenAI también insiste en que el prompting debe ajustarse al problema, no al revés. Por eso esta lección enlaza directamente con la siguiente: revisar salidas es la única forma de saber si la técnica elegida estaba justificadamente bien o era excesiva.

🧭 Visuales clave

Árbol de decisión de patrones de prompting

Te permite elegir técnica según complejidad, necesidad de ejemplos y dependencia de fuentes externas.

Árbol de decisión que conecta tipo de tarea con zero-shot, few-shot, Chain-of-Thought, Tree of Thoughts y RAG.

¿Qué es esto?

Soy Cristian Eslava y a veces hago webs para procrastinar yo y vosotros 😉.

Esta la hice en febrero de 2026 para facilitar el aprendizaje de mis alumnxs. Aprender desarrollo web practicando. La idea es que crezca semanalmente con nuevos temas, tests y retos.

Inspirado en MDN, en W3Schools, en Codepen, en el crack de Manz y en mil sitios de documentación sobre desarrollo web. Quería aportar además de bloques teóricos con ejemplos, la gamificación de los retos y el sistema de test que ya tenía en culTest .

Si te gustó, si no te gustó, si quieres saludarme, o invitarme a 🍻 no dudes en escribirme en cristianeslava@gmail.com .