Hiperparámetros (Hyperparameters)

En inteligencia artificial, los hiperparámetros son valores de configuración que se definen antes de entrenar un modelo y controlan su arquitectura y el modo en que aprende (por ejemplo, tasa de aprendizaje, número de capas o tamaño de lote).

En aprendizaje automático y deep learning, los hiperparámetros son variables de configuración externas al modelo que se establecen antes del entrenamiento y no se aprenden a partir de los datos. A diferencia de los parámetros (como los pesos de una red neuronal), que el algoritmo ajusta automáticamente durante el aprendizaje, los hiperparámetros determinan cómo se llevará a cabo ese proceso de aprendizaje.

Ejemplos típicos de hiperparámetros son la tasa de aprendizaje, el número de capas y neuronas de una red neuronal, el tamaño de lote (batch size), el número de árboles en un bosque aleatorio o el número de iteraciones/épocas de entrenamiento. Estos valores influyen en la capacidad del modelo para generalizar, en el riesgo de sobreajuste o subajuste y en el coste computacional del entrenamiento.

En la práctica, la elección de buenos hiperparámetros es una de las tareas más críticas en un proyecto de IA. El proceso sistemático de buscar combinaciones que maximizan el rendimiento del modelo se conoce como ajuste u optimización de hiperparámetros, y suele apoyarse en técnicas como búsqueda en cuadrícula (grid search), búsqueda aleatoria, optimización bayesiana o algoritmos evolutivos.

En contextos de marketing digital y datos, comprender y ajustar hiperparámetros permite entrenar modelos más precisos para tareas como scoring de leads, recomendadores de contenido, segmentación de audiencias o modelos de atribución, logrando mejores resultados con el mismo volumen de datos y recursos de cómputo.

Ejemplos

  • Ejemplo:
    En una red neuronal para predecir el valor de un cliente (CLV), la tasa de aprendizaje, el número de capas ocultas y el número de neuronas por capa son hiperparámetros que se fijan antes de entrenar el modelo.
  • Ejemplo:
    Al entrenar un modelo de clasificación de leads con un algoritmo de bosque aleatorio, el número de árboles, la profundidad máxima de cada árbol y el número mínimo de muestras por hoja son hiperparámetros que afectan a la precisión y al tiempo de cómputo.
  • Ejemplo:
    En un sistema de recomendaciones de productos, el tamaño de lote, el número de épocas de entrenamiento y el coeficiente de regularización (L2) se ajustan como hiperparámetros para equilibrar rendimiento y riesgo de sobreajuste.

Preguntas frecuentes

¿En qué se diferencian los hiperparámetros de los parámetros de un modelo?
Los parámetros (por ejemplo, los pesos de una red neuronal) se aprenden automáticamente a partir de los datos durante el entrenamiento, mientras que los hiperparámetros se definen manualmente antes del entrenamiento y controlan la arquitectura del modelo y la dinámica del algoritmo de aprendizaje.
¿Por qué son tan importantes los hiperparámetros en un proyecto de IA?
Porque determinan cómo aprende el modelo: afectan a su capacidad para generalizar, a la velocidad de convergencia, al riesgo de sobreajuste o subajuste y al coste computacional. Una buena combinación de hiperparámetros puede marcar la diferencia entre un modelo útil en producción y uno que no cumple los objetivos del negocio.
¿Cómo se pueden optimizar los hiperparámetros de un modelo?
Se suelen usar estrategias de búsqueda sistemática como grid search (probar todas las combinaciones en una rejilla), random search (muestrear combinaciones al azar), optimización bayesiana o métodos automáticos proporcionados por plataformas de ML que exploran el espacio de hiperparámetros guiados por métricas de validación.

SINÓNIMOS

También conocido como: Variables de configuración del modelo, Configuraciones de entrenamiento

ÚLTIMA REVISIÓN

Actualizado el: 01/11/2025