Je passe en revue les vidéos du cours gratuit d' apprentissage automatique en ligne d' Andrew Ng à Stanford. Il décrit Gradient Descent comme un algorithme pour résoudre la régression linéaire et écrire des fonctions dans Octave pour l'exécuter. Vraisemblablement, je pourrais réécrire ces fonctions dans R, mais ma question est la fonction lm () ne me donne-t-elle pas déjà la sortie de la régression linéaire? Pourquoi voudrais-je écrire ma propre fonction de descente de gradient? Y a-t-il un avantage ou s'agit-il uniquement d'un exercice d'apprentissage? Est-ce que lm () fait une descente de gradient?