Questions marquées «machine-learning»

Les algorithmes d'apprentissage automatique construisent un modèle des données d'apprentissage. Le terme «apprentissage automatique» est vaguement défini; il comprend ce qu'on appelle aussi l'apprentissage statistique, l'apprentissage par renforcement, l'apprentissage non supervisé, etc. TOUJOURS AJOUTER UN ÉTIQUETTE PLUS SPÉCIFIQUE.

4
La différence des noyaux dans SVM?
Quelqu'un peut-il me dire la différence entre les noyaux dans SVM: Linéaire Polynôme Gaussien (RBF) Sigmoïde Parce que, comme nous le savons, le noyau est utilisé pour mapper notre espace d'entrée dans un espace de fonctionnalité de haute dimensionnalité. Et dans cet espace caractéristique, nous trouvons la frontière séparable linéairement …







1
Quelles sont les notations classiques en statistique, algèbre linéaire et apprentissage automatique? Et quels sont les liens entre ces notations?
Lorsque nous lisons un livre, la compréhension des notations joue un rôle très important dans la compréhension du contenu. Malheureusement, différentes communautés ont des conventions de notation différentes pour la formulation du modèle et le problème d'optimisation. Quelqu'un pourrait-il résumer certaines notations de formulation ici et fournir des raisons possibles? …


1
Un contre tous et un contre un dans svm?
Quelle est la différence entre un classificateur SVM un contre un et un contre un? Est-ce que un contre un signifie un classificateur pour classer tous les types / catégories de la nouvelle image et un contre un signifie que chaque type / catégorie de nouvelle image se classe avec …


1
La perte d'entraînement diminue et augmente de nouveau. Qu'est-ce qui se passe?
Ma perte d'entraînement diminue puis augmente à nouveau. C'est très bizarre. La perte de validation croisée suit la perte d'entraînement. Que se passe-t-il? J'ai deux LSTMS empilés comme suit (sur Keras): model = Sequential() model.add(LSTM(512, return_sequences=True, input_shape=(len(X[0]), len(nd.char_indices)))) model.add(Dropout(0.2)) model.add(LSTM(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(nd.categories))) model.add(Activation('sigmoid')) model.compile(loss='binary_crossentropy', optimizer='adadelta') Je l'entraîne pour 100 …




En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.