Questions marquées «accuracy»

La précision d'un estimateur est le degré de proximité des estimations par rapport à la valeur réelle. Pour un classificateur, la précision est la proportion de classifications correctes. (Cette deuxième utilisation n'est pas une bonne pratique. Voir le tag wiki pour un lien vers plus d'informations.)

7
Pourquoi la précision n'est-elle pas la meilleure mesure pour évaluer les modèles de classification?
C'est une question générale qui a été posée indirectement à plusieurs reprises ici, mais il manque une seule réponse faisant autorité. Il serait bon d'avoir une réponse détaillée à cette question pour la référence. L’exactitude , la proportion de classifications correctes parmi toutes les classifications, est une mesure très simple …



6
Pourquoi ai-je un arbre de décision à 100% de précision?
Je reçois une précision de 100% pour mon arbre de décision. Qu'est-ce que je fais mal? Ceci est mon code: import pandas as pd import json import numpy as np import sklearn import matplotlib.pyplot as plt data = np.loadtxt("/Users/Nadjla/Downloads/allInteractionsnum.csv", delimiter=',') x = data[0:14] y = data[-1] from sklearn.cross_validation import train_test_split …

1
Quels sont les défauts de l'erreur moyenne absolue en pourcentage (MAPE)?
L' erreur moyenne absolue en pourcentage ( mape ) est une précision ou une mesure d'erreur courante pour les séries chronologiques ou d'autres prévisions, MAPE = 100n∑t = 1n| UNEt- Ft|UNEt% ,MAPE=100n∑t=1n|At−Ft|At%, \text{MAPE} = \frac{100}{n}\sum_{t=1}^n\frac{|A_t-F_t|}{A_t}\%, où sont des réels et des prévisions ou prédictions correspondantes.F tUNEtAtA_tFtFtF_t Le MAPE est un …
29 accuracy  mape 

5
Un modèle suréquipé est-il nécessairement inutile?
Supposons qu'un modèle a une précision de 100% sur les données de formation, mais une précision de 70% sur les données de test. L'argument suivant est-il vrai à propos de ce modèle? Il est évident qu'il s'agit d'un modèle sur-équipé. La précision du test peut être améliorée en réduisant le …

1
F1 / Dice-Score vs IoU
J'étais confus quant aux différences entre le score F1, le score Dice et IoU (intersection sur l'union). À ce jour, j'ai découvert que F1 et Dice signifient la même chose (non?) Et IoU a une formule très similaire aux deux autres. F1 / Dés:2 TP2 TP+ FP+ FN2TP2TP+FP+FN\frac{2TP}{2TP+FP+FN} IoU / …




2
Précision vs aire sous la courbe ROC
J'ai construit une courbe ROC pour un système de diagnostic. L'aire sous la courbe a ensuite été estimée de manière non paramétrique à AUC = 0,89. Lorsque j'ai essayé de calculer la précision au réglage de seuil optimal (le point le plus proche du point (0, 1)), j'ai obtenu la …

2
Bonne précision malgré une valeur de perte élevée
Au cours de la formation d'un classificateur binaire de réseau neuronal simple, j'obtiens une valeur de perte élevée, en utilisant l'entropie croisée. Malgré cela, la valeur de la précision sur l'ensemble de validation est assez bonne. Cela a-t-il un sens? Il n'y a pas de corrélation stricte entre la perte …

2
Si «l'erreur standard» et les «intervalles de confiance» mesurent la précision de la mesure, alors quelles sont les mesures de la précision?
Dans le livre "Biostatistique pour les nuls" à la page 40, je lis: L'erreur standard (abrégée SE) est un moyen d'indiquer la précision de votre estimation ou mesure de quelque chose. et Les intervalles de confiance fournissent une autre façon d'indiquer la précision d'une estimation ou d'une mesure de quelque …


2
Est précision = 1- taux d'erreur de test
Toutes mes excuses si c'est une question très évidente, mais j'ai lu divers articles et je n'arrive pas à trouver une bonne confirmation. Dans le cas de la classification, la précision d' un classificateur est-elle un taux d'erreur de test de 1 ? J'obtiens que la précision est , mais …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.