Conjunto de métricas cuantitativas que evalúan el desempeño de un modelo de clasificación midiendo la exactitud de sus predicciones en diferentes dimensiones.
Las métricas de clasificación son indicadores fundamentales en machine learning que permiten evaluar qué tan bien un modelo predice categorías. A diferencia de una única métrica de exactitud, estas cuatro métricas ofrecen una visión completa del desempeño:
Accuracy (Exactitud): Mide el porcentaje total de predicciones correctas sobre el total de datos. Se calcula como (TP + TN) / (TP + TN + FP + FN). Aunque es intuitiva, puede ser engañosa con datos desbalanceados, donde un modelo podría obtener alta exactitud simplemente prediciendo la clase mayoritaria.
Precision: Responde a la pregunta: de todas las predicciones positivas que hizo el modelo, ¿cuántas fueron correctas? Se calcula como TP / (TP + FP). Es crucial cuando los falsos positivos son costosos, como en diagnósticos médicos donde un falso positivo causa alarma innecesaria.
Recall (Exhaustividad): Responde a: de todos los casos positivos reales, ¿cuántos identificó correctamente el modelo? Se calcula como TP / (TP + FN). Es prioritario cuando los falsos negativos son peligrosos, como detectar enfermedades donde no identificar un caso real es crítico.
F1-Score: Es la media armónica entre precision y recall, calculada como 2 × (precision × recall) / (precision + recall). Proporciona un balance entre ambas métricas y es especialmente útil con datos desbalanceados, penalizando significativamente cuando hay grandes diferencias entre precision y recall.
La elección entre estas métricas depende del contexto del problema: usa precision cuando minimizar falsos positivos es prioritario, recall cuando minimizar falsos negativos es crítico, y F1-score cuando necesitas un balance equilibrado entre ambos.
Consulta nuestro servicio de servicios de métricas de clasificación (accuracy, precision, recall, f1)