Il suffit d'ajouter cette clarification pour que quiconque fait défiler autant puisse au moins bien faire les choses, car il y a tellement de mauvaises réponses votées.
De Diansheng réponse et de JakeJ réponse il faut.
Une nouvelle réponse publiée par Shital Shah est une réponse encore meilleure et plus complète.
Oui, en logit
tant que fonction mathématique en statistique, mais celle logit
utilisée dans le contexte des réseaux de neurones est différente. La statistique logit
n'a même aucun sens ici.
Je n'ai pu trouver de définition formelle nulle part, mais cela logit
signifie essentiellement:
Les prédictions brutes qui sortent de la dernière couche du réseau neuronal.
1. C'est le tenseur même sur lequel vous appliquez la argmax
fonction pour obtenir la classe prédite.
2. C'est le tenseur même que vous introduisez dans la softmax
fonction pour obtenir les probabilités pour les classes prédites.
Aussi, à partir d'un tutoriel sur le site Web officiel de tensorflow:
Couche Logits
La dernière couche de notre réseau de neurones est la couche logits, qui renverra les valeurs brutes de nos prévisions. Nous créons une couche dense avec 10 neurones (un pour chaque classe cible 0–9), avec une activation linéaire (par défaut):
logits = tf.layers.dense(inputs=dropout, units=10)
Si vous êtes toujours confus, la situation est la suivante:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
où, predicted_class_index_by_raw
et predicted_class_index_by_prob
sera égal.
Un autre nom pour raw_predictions
dans le code ci-dessus estlogit
.
Quant au pourquoi logit
... je n'en ai aucune idée. Désolé.
[Modifier: Voir cette réponse pour les motivations historiques derrière le terme.]
Trivia
Cependant, si vous le souhaitez, vous pouvez appliquer des statistiques logit
à probabilities
celles issues de la softmax
fonction.
Si la probabilité d'une certaine classe est p
,
alors les log-cotes de cette classe sont L = logit(p)
.
En outre, la probabilité de cette classe peut être récupérée en p = sigmoid(L)
utilisant la sigmoid
fonction.
Pas très utile pour calculer les cotes de log cependant.