La ventana de contexto es la cantidad máxima de texto (en tokens) que un modelo de lenguaje puede considerar en una sola interacción, como su memoria de trabajo temporal.
La ventana de contexto (o context window) es un concepto clave en los modelos de lenguaje de inteligencia artificial, especialmente en los grandes modelos (LLMs) como ChatGPT, Claude o Gemini. Representa la cantidad máxima de texto que el modelo puede ver y recordar en una misma interacción para generar una respuesta coherente.
Esta capacidad se mide en tokens, que son unidades de texto más pequeñas que las palabras: pueden ser palabras completas, fragmentos de palabra, signos de puntuación o incluso caracteres aislados. Por ejemplo, una ventana de 8.000 tokens puede contener unas 6.000 palabras aproximadamente, dependiendo del idioma y la estructura del texto.
Desde el punto de vista técnico, la ventana de contexto define el tamaño máximo de la secuencia de entrada que el modelo puede procesar en cada paso. En modelos basados en transformers, el mecanismo de autoatención permite al modelo calcular relaciones entre todos los tokens dentro de esa ventana, lo que le permite entender dependencias entre ideas lejanas en el texto. Pero una vez que el contenido supera ese límite, el modelo olvida los tokens más antiguos, como si salieran de una cinta transportadora.
Una ventana de contexto más amplia permite:
En cambio, una ventana pequeña limita la profundidad del contexto, obligando a resumir o dividir el contenido en partes más pequeñas. Por eso, elegir un modelo con una ventana adecuada es crucial según el uso: atención al cliente, redacción larga, programación o análisis legal.
Consulta nuestro servicio de servicios de ventana de contexto (context window)