Elementos de la Matrix de Confusion en la Clasificación de Datos

Elementos de la Matrix de Confusion en la Clasificación de Datos

  • Evaluación del modelo de clasificación (matriz de confusión, precisión, precisión, puntaje F, curva característica del operador receptor (ROC)) .- Calcule el puntaje F1 y la precisión del modelo.
  • Puntuación F1 = 2 * [(Precisión x Recuperación) / (Precisión + Recuperación)]. Implica la media armónica de precisión y recuerdo. Este concepto integra el porcentaje de datos que identificamos correctamente y que eran relevantes cuando se estableció la predicción de relevancia.
  • Precisión = (TP + TN) / (TP + TN + FN + FP) (relación de predicciones correctas sobre la predicción total)
  • Sensibilidad o recuperación: TP / (TP + FN) (la frecuencia de corrección de las instancias positivas): porcentaje del total de resultados relevantes que su algoritmo identifica correctamente
  • Especificidad: TN / (TN + FP) la frecuencia de corrección de instancias negativas
  • Precisión (valor predicho positivo): TP / (TP + FP) (la frecuencia de corrección de las instancias predichas positivas). Porcentaje de resultados que se consideran relevantes que fueron relevantes. La fracción de instancias relevantes entre las instancias recuperadas
  • (FPR) Tasa de falso positivo = 1-Especificidad = FP / (TN + FP). El número de categorizados incorrectamente como positivos dividido por el número total de eventos negativos reales
  • Tasa de error (error de clasificación) = 1-Precisión indica con qué frecuencia el modelo está haciendo una predicción incorrecta (FP + FN) / (TP + FP + FN + TN)