J'ai joué avec la régression logistique avec divers algorithmes d'optimisation par lots (gradient conjugué, newton-raphson et diverses méthodes de quasinewton). Une chose que j'ai remarquée est que, parfois, l'ajout de données à un modèle peut en fait rendre la formation du modèle beaucoup moins longue. Chaque itération nécessite de regarder plus de points de données, mais le nombre total d'itérations nécessaires peut chuter considérablement lors de l'ajout de données. Bien sûr, cela ne se produit que sur certains ensembles de données, et à un moment donné, l'ajout de données entraînera un ralentissement de l'optimisation.
Est-ce un phénomène bien étudié? Où puis-je trouver plus d'informations sur pourquoi / quand cela pourrait se produire?