Erreur quadratique moyenne par rapport à l'erreur quadratique minimale, laquelle comparer les ensembles de données?


8

J'ai 3 jeux de données du même système. Mais pour le premier, j'ai 21 mesures. Pour les deuxième et troisième, je n'ai que 9 mesures. Maintenant, j'ai fait un modèle en utilisant ces 3 jeux de données (donc 3 modèles, 1 par jeu de données). Quand je veux comparer l'erreur entre ces deux ensembles de données. Y a-t-il un net avantage à utiliser le MSE à la place du LSE (erreur la moins carrée). Sur Internet, je ne trouve pas de réponse claire à cela. Quels sont les principaux avantages?

Réponses:


11

Je pense que vous ne savez pas comment construire un modèle à partir de données et comment quantifier la précision d'un modèle une fois qu'il est construit.

Lorsque vous voulez construire un modèle (régression linéaire dans votre cas, je suppose?), Vous utilisez généralement la méthode de l' erreur la moins carrée qui minimise la distance euclidienne "totale" entre une ligne et les points de données. Théoriquement, les coefficients de cette ligne peuvent être trouvés en utilisant le calcul mais en pratique, un algorithme effectuera une descente de gradient qui est plus rapide.

Une fois que vous avez votre modèle, vous souhaitez évaluer ses performances. Ainsi, dans le cas de la régression, il peut être bon de calculer une métrique qui évalue «dans quelle mesure» votre modèle aux points de données réels (ou testez les données de l'ensemble si vous en avez un) en moyenne. Le MSE est une bonne estimation que vous voudrez peut-être utiliser!

Pour résumer, gardez à l'esprit que LSE est une méthode qui construit un modèle et MSE est une métrique qui évalue les performances de votre modèle.


1
J'ai réalisé un modèle d'inactivation biologique non linéaire avec 2 paramètres avec le commando matlab: LSQNONLIN. Ce commando me donne l'erreur la moins carrée. J'ai 3 de ces erreurs les moins carrées parce que je l'ai fait pour 3 jeux de données. Maintenant, je veux comparer la précision des deux ensembles de données. Pourquoi ne puis-je pas comparer ces LSE les uns aux autres?
Thomas

1
@Thomas Les ensembles de données ont-ils différents nombres d'observations? Avez-vous présenté un ensemble de données final pour évaluer les trois modèles?
Matthew Drury

1
Mais l'équation de LSE et MSE est presque la même, non?
QtRoS

Prenons deux ensembles de données, l'un avec 10 points de données et l'autre avec 10 000 points de données. S'ils ont le même MSE, ils ne peuvent pas avoir le même LSE - C'est pourquoi la moyenne dans "Mean Squared Error" est utilisée, la quadrature rend tous les nombres positifs et la moyenne fait la moyenne de ces valeurs afin que la statistique soit indépendante du nombre de données points. Le R-carré (R2) calculé comme "R2 = 1.0 - (variation_erreur_absolu / variation_données_dépendantes)" est également utilisé pour une raison similaire, c'est-à-dire qu'il est indépendant du nombre de points de données utilisés dans la modélisation.
James Phillips

3

MSE (Mean Squared Error) est la moyenne de l'erreur quadratique, c'est-à-dire la différence entre l'estimateur et l'estimation. MMSE (Minumum Mean Square Error) est un estimateur qui minimise le MSE. Par conséquent, LSE et MMSE sont comparables car les deux sont des estimateurs. LSE et MSE ne sont pas comparables comme l'a souligné Anil. Il existe en théorie d'importantes différences entre MMSE et LSE.
MMSE est optimal pour toutes les réalisations du processus tandis que LSE est optimal pour les données données elles-mêmes. En effet, MMSE utilise des moyennes d'ensemble (attente) tandis que LSE utilise la moyenne temporelle.

Ce que cela signifie pratiquement: 1. Pour MMSE, vous devez connaître les propriétés statistiques de second ordre des données (corrélation croisée et autocorrélation), tandis que pour LSE, vous n'avez besoin que des données. L'autocorrélation et la corrélation croisée coûtent cher en calcul et un calcul précis nécessite beaucoup de points de données / d'expériences. 2. Les coefficients MMSE sont optimaux pour le processus, il est donc optimal pour tous les ensembles de données du processus, tandis que LSE n'est optimal que pour l'ensemble de données particulier. Les coefficients LSE ne resteront pas optimaux si l'ensemble de données change.

Veuillez également noter que MMSE approche LSE si le processus est ergodique et que le nombre de points de données approche l'infini.


0

Je pense que la première réponse actuelle d'Anil Narassiguin est trompeuse. Il dit en bas: "LSE est une méthode qui construit un modèle et MSE est une métrique qui évalue les performances de votre modèle."

Ce n'est tout simplement pas vrai. Fondamentalement, ce sont deux fonctions de perte / coût . Les deux calculent l'erreur des prédictions actuelles tout en itérant afin que les poids puissent être optimisés.

Cependant, LSE est utilisé pour les problèmes de classification tandis que MSE est utilisé pour les problèmes de régression. Je crois que c'est la principale différence entre ces deux, vous devez donc déterminer quel type de problème vous avez, la régression de la classification.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.