Il existe un certain nombre de sites Web décrivant la descente de gradient pour trouver les paramètres d'une régression linéaire simple (en voici un). Google le décrit également dans son nouveau cours de ML (au public).
Cependant, sur Wikipedia , les formules suivantes pour calculer les paramètres sont fournies:
En outre, la fonction LinearRegression de scikit-learn n'a pas n_iter_
d'attribut (nombre d'itérations) comme elle le fait pour de nombreuses autres fonctions d'apprentissage, ce qui, je suppose, suggère que la descente de gradient n'est pas utilisée?
Des questions:
- Les sites Web décrivant la descente du gradient pour une régression linéaire simple ne le font-ils que pour enseigner le concept de celui-ci sur le modèle ML le plus élémentaire? La formule sur Wikipedia est-elle celle que la plupart des logiciels de statistiques utiliseraient pour calculer les paramètres (au moins, scikit-learn ne semble pas utiliser la descente de gradient)?
- Qu'est-ce qui est généralement utilisé pour la régression linéaire multiple?
- Pour quels types de modèles d'apprentissage statistique la descente de gradient est-elle généralement utilisée pour trouver les paramètres par rapport à d'autres méthodes? Existe-t-il une règle d'or?