Je comprends le raisonnement derrière la normalisation des colonnes, car il entraîne une pondération égale des entités, même si elles ne sont pas mesurées sur la même échelle - cependant, souvent dans la littérature du voisin le plus proche, les colonnes et les lignes sont normalisées. Quelle est la normalisation …
Le mgcvpackage pour Ra deux fonctions pour ajuster les interactions des produits tensoriels: te()et ti(). Je comprends la division de base du travail entre les deux (ajustement d'une interaction non linéaire vs décomposition de cette interaction en effets principaux et interaction). Ce que je ne comprends pas, c'est pourquoi te(x1, …
Il est bien connu (par exemple dans le domaine de la détection compressive) que la norme "induit la rareté", en ce sens que si nous minimisons la fonction (pour la matrice fixe et le vecteur ) pour assez grand \ lambda> 0 , il est probable que de nombreux choix …
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
Je sais qu'il existe plus de deux types de normalisation. Par exemple, 1- Transformer les données en utilisant un z-score ou un t-score. Ceci est généralement appelé standardisation. 2- Redimensionner les données pour avoir des valeurs comprises entre 0 et 1. La question maintenant si j'ai besoin de normaliser Quel …
Je sais qu'il est courant de normaliser les caractéristiques de régression de crête et de lasso, mais serait-il plus pratique de normaliser les caractéristiques sur une échelle (0,1) comme alternative à la standardisation du score z pour ces méthodes de régression?
Selon "Efficient Backprop" de LeCun et al (1998), il est de bonne pratique de normaliser toutes les entrées afin qu'elles soient centrées autour de 0 et se situent dans la plage de la dérivée seconde maximale. Ainsi, par exemple, nous utiliserions [-0,5,0,5] pour la fonction "Tanh". C'est pour aider la …
Si une analyse discriminante linéaire multi-classes (ou je lis parfois plusieurs analyses discriminantes) est utilisée pour la réduction de dimensionnalité (ou la transformation après réduction de dimensionnalité via PCA), je comprends qu'en général une "normalisation du score Z" (ou standardisation) de les fonctionnalités ne seront pas nécessaires, même si elles …
J'essaie d'apprendre un modèle de régression linéaire. Cependant, j'ai une certaine confusion liée à la normalisation des données. J'ai normalisé les caractéristiques / prédicteurs à zéro moyenne et variance unitaire. Dois-je faire de même pour la cible. Si oui, pourquoi?
J'utilise Dynamic Time Warping pour faire correspondre une "requête" et une courbe "modèle" et j'ai eu un succès raisonnable jusqu'à présent, mais j'ai quelques questions de base: J'évalue une «correspondance» en évaluant si le résultat DTW est inférieur à une valeur seuil que je trouve heuristiquement. Est-ce l'approche générale pour …
Je travaille avec un grand ensemble de données d'accéléromètre recueillies avec plusieurs capteurs portés par de nombreux sujets. Malheureusement, personne ici ne semble connaître les spécifications techniques des appareils et je ne pense pas qu'ils aient été recalibrés. Je n'ai pas beaucoup d'informations sur les appareils. Je travaille sur ma …
Les greffes suivantes sont extraites de cet article . Je suis novice dans le bootstrap et j'essaie d'implémenter le bootstrap paramétrique, semi-paramétrique et non paramétrique pour le modèle mixte linéaire avec le R bootpackage. Code R Voici mon Rcode: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + …
Je souhaite effectuer une analyse du nombre de quadrat sur plusieurs processus ponctuels (ou un processus ponctuel marqué), puis appliquer des techniques de réduction de dimensionnalité. Les marques ne sont pas distribuées de manière identique, c'est-à-dire que certaines marques apparaissent assez souvent et certaines sont assez rares. Ainsi, je ne …
Je me demandais si quelqu'un ici pouvait expliquer la différence entre le mode de normalisation l1, l2 et max dans le module sklearn.preprocessing.normalize ()? Après avoir lu la documentation, je n'ai pas réalisé la différence!
Mes données consistent en plusieurs mesures continues et quelques variables fictives représentant les années pendant lesquelles les mesures ont été effectuées. Maintenant, je veux apprendre un réseau neuronal avec les données. Par conséquent, je normalise zScore toutes les variables, y compris les variables fictives. Cependant, je me demande si c'est …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.