Il suffit d'ajouter cette clarification pour que quiconque fait défiler autant puisse au moins bien faire les choses, car il y a tellement de mauvaises réponses votées.
De Diansheng réponse et de JakeJ réponse il faut.
Une nouvelle réponse publiée par Shital Shah est une réponse encore meilleure et plus complète.
Oui, en logit tant que fonction mathématique en statistique, mais celle logitutilisée dans le contexte des réseaux de neurones est différente. La statistique logitn'a même aucun sens ici.
Je n'ai pu trouver de définition formelle nulle part, mais cela logitsignifie essentiellement:
Les prédictions brutes qui sortent de la dernière couche du réseau neuronal.
1. C'est le tenseur même sur lequel vous appliquez la argmaxfonction pour obtenir la classe prédite.
2. C'est le tenseur même que vous introduisez dans la softmaxfonction pour obtenir les probabilités pour les classes prédites.
Aussi, à partir d'un tutoriel sur le site Web officiel de tensorflow:
Couche Logits
La dernière couche de notre réseau de neurones est la couche logits, qui renverra les valeurs brutes de nos prévisions. Nous créons une couche dense avec 10 neurones (un pour chaque classe cible 0–9), avec une activation linéaire (par défaut):
logits = tf.layers.dense(inputs=dropout, units=10)
Si vous êtes toujours confus, la situation est la suivante:
raw_predictions = neural_net(input_layer)
predicted_class_index_by_raw = argmax(raw_predictions)
probabilities = softmax(raw_predictions)
predicted_class_index_by_prob = argmax(probabilities)
où, predicted_class_index_by_rawet predicted_class_index_by_probsera égal.
Un autre nom pour raw_predictionsdans le code ci-dessus estlogit .
Quant au pourquoi logit ... je n'en ai aucune idée. Désolé.
[Modifier: Voir cette réponse pour les motivations historiques derrière le terme.]
Trivia
Cependant, si vous le souhaitez, vous pouvez appliquer des statistiques logità probabilitiescelles issues de la softmaxfonction.
Si la probabilité d'une certaine classe est p,
alors les log-cotes de cette classe sont L = logit(p).
En outre, la probabilité de cette classe peut être récupérée en p = sigmoid(L)utilisant la sigmoidfonction.
Pas très utile pour calculer les cotes de log cependant.