En inteligencia artificial, los hiperparámetros son valores de configuración que se definen antes de entrenar un modelo y controlan su arquitectura y el modo en que aprende (por ejemplo, tasa de aprendizaje, número de capas o tamaño de lote).
En aprendizaje automático y deep learning, los hiperparámetros son variables de configuración externas al modelo que se establecen antes del entrenamiento y no se aprenden a partir de los datos. A diferencia de los parámetros (como los pesos de una red neuronal), que el algoritmo ajusta automáticamente durante el aprendizaje, los hiperparámetros determinan cómo se llevará a cabo ese proceso de aprendizaje.
Ejemplos típicos de hiperparámetros son la tasa de aprendizaje, el número de capas y neuronas de una red neuronal, el tamaño de lote (batch size), el número de árboles en un bosque aleatorio o el número de iteraciones/épocas de entrenamiento. Estos valores influyen en la capacidad del modelo para generalizar, en el riesgo de sobreajuste o subajuste y en el coste computacional del entrenamiento.
En la práctica, la elección de buenos hiperparámetros es una de las tareas más críticas en un proyecto de IA. El proceso sistemático de buscar combinaciones que maximizan el rendimiento del modelo se conoce como ajuste u optimización de hiperparámetros, y suele apoyarse en técnicas como búsqueda en cuadrícula (grid search), búsqueda aleatoria, optimización bayesiana o algoritmos evolutivos.
En contextos de marketing digital y datos, comprender y ajustar hiperparámetros permite entrenar modelos más precisos para tareas como scoring de leads, recomendadores de contenido, segmentación de audiencias o modelos de atribución, logrando mejores resultados con el mismo volumen de datos y recursos de cómputo.
Consulta nuestro servicio de servicios de hiperparámetros (hyperparameters)