Ventana de contexto (Context Window)

La ventana de contexto es la cantidad máxima de texto (en tokens) que un modelo de lenguaje puede considerar en una sola interacción, como su memoria de trabajo temporal.

La ventana de contexto (o context window) es un concepto clave en los modelos de lenguaje de inteligencia artificial, especialmente en los grandes modelos (LLMs) como ChatGPT, Claude o Gemini. Representa la cantidad máxima de texto que el modelo puede ver y recordar en una misma interacción para generar una respuesta coherente.

Esta capacidad se mide en tokens, que son unidades de texto más pequeñas que las palabras: pueden ser palabras completas, fragmentos de palabra, signos de puntuación o incluso caracteres aislados. Por ejemplo, una ventana de 8.000 tokens puede contener unas 6.000 palabras aproximadamente, dependiendo del idioma y la estructura del texto.

Desde el punto de vista técnico, la ventana de contexto define el tamaño máximo de la secuencia de entrada que el modelo puede procesar en cada paso. En modelos basados en transformers, el mecanismo de autoatención permite al modelo calcular relaciones entre todos los tokens dentro de esa ventana, lo que le permite entender dependencias entre ideas lejanas en el texto. Pero una vez que el contenido supera ese límite, el modelo olvida los tokens más antiguos, como si salieran de una cinta transportadora.

Una ventana de contexto más amplia permite:

  • Mantener conversaciones más largas sin perder el hilo.
  • Analizar documentos completos (contratos, artículos, libros) de un solo vistazo.
  • Entender grandes bloques de código para depurar, explicar o generar nuevas funciones.
  • Evitar repeticiones o contradicciones en textos extensos.

En cambio, una ventana pequeña limita la profundidad del contexto, obligando a resumir o dividir el contenido en partes más pequeñas. Por eso, elegir un modelo con una ventana adecuada es crucial según el uso: atención al cliente, redacción larga, programación o análisis legal.

Ejemplos

  • Ejemplo:
    Un modelo con ventana de 32.000 tokens puede analizar un contrato de 20 páginas completo y responder preguntas específicas sobre cláusulas sin perder detalles clave.
  • Ejemplo:
    En una conversación larga, si el modelo tiene solo 4.000 tokens de ventana, después de cierto punto dejará de recordar lo que dijiste al principio y puede repetir información o perder el hilo.
  • Ejemplo:
    Al pedirle a una IA que revise un archivo de código de 10.000 líneas, si el modelo tiene una ventana de 16.000 tokens, puede entender la estructura general y sugerir mejoras coherentes en lugar de solo fragmentos aislados.

Preguntas frecuentes

¿Qué pasa si supero la ventana de contexto de un modelo?
Si el texto (prompt + historial + respuesta) supera la ventana de contexto, el modelo trunca o elimina automáticamente las partes más antiguas para mantenerse dentro del límite. Esto puede hacer que 'olvide' información clave de la conversación o del documento original.
¿Ventana de contexto es lo mismo que memoria de entrenamiento?
No. La ventana de contexto es la memoria de trabajo durante una interacción. La memoria de entrenamiento es todo el conocimiento que el modelo adquirió durante su entrenamiento con grandes volúmenes de datos, pero que no puede 'ver' directamente en cada conversación.
¿Ventanas más grandes siempre son mejores?
No necesariamente. Ventanas más grandes permiten más contexto, pero requieren más recursos computacionales, pueden ralentizar las respuestas y aumentar el riesgo de que el modelo se desvíe o sea más vulnerable a instrucciones adversarias. Lo ideal es elegir un tamaño adecuado al tipo de tarea.

SINÓNIMOS

También conocido como: Longitud de contexto, Context window, Memoria de trabajo del modelo

ÚLTIMA REVISIÓN

Actualizado el: 10/12/2025