El subajuste (underfitting) es una situación en la que un modelo de Machine Learning es tan simple o está tan pobremente entrenado que no logra aprender los patrones subyacentes de los datos, provocando alto sesgo y bajo rendimiento tanto en el conjunto de entrenamiento como en los datos nuevos.
El subajuste (en inglés, underfitting) es un problema clásico en aprendizaje automático e inteligencia artificial que aparece cuando un modelo es incapaz de capturar la complejidad real de los datos. Técnicamente, se asocia con un modelo de alta simplicidad (pocos parámetros, hipótesis demasiado rígidas) que genera alto sesgo y baja varianza.
En la práctica, un modelo con subajuste:
Ejemplos típicos de subajuste incluyen usar una regresión lineal para un problema claramente no lineal, entrenar pocas épocas una red neuronal o aplicar una regularización tan fuerte que el modelo queda prácticamente plano. En términos de la compensación sesgo-varianza, el subajuste representa el extremo de sesgo elevado: el modelo hace suposiciones demasiado simplificadas sobre la relación entre variables.
Desde un punto de vista aplicado, el subajuste es problemático en sistemas de IA orientados a negocio (predicción de demanda, scoring de usuarios, recomendadores, clasificación de leads, etc.) porque conduce a predicciones débiles, poco discriminativas y poco útiles para la toma de decisiones.
Para reducir o evitar el subajuste suelen aplicarse varias estrategias combinadas:
Diagnosticar subajuste suele hacerse comparando el error de entrenamiento y validación o analizando curvas de aprendizaje: si ambos errores son altos y cercanos entre sí, es un indicio claro de underfitting. El objetivo es encontrar un punto intermedio entre subajuste y sobreajuste (overfitting), donde el modelo se generalice bien a datos nuevos.
Consulta nuestro servicio de seo programático