Statistiques et Big Data

Q & A pour les personnes intéressées par les statistiques, l'apprentissage automatique, l'analyse de données, l'exploration de données et la visualisation de données

1
Deux façons d'utiliser le bootstrap pour estimer l'intervalle de confiance des coefficients de régression
J'applique un modèle linéaire à mes données: yje= β0+ β1Xje+ ϵje,ϵje∼ N( 0 , σ2) .yje=β0+β1Xje+ϵje,ϵje∼N(0,σ2). y_{i}=\beta_{0}+\beta_{1}x_{i}+\epsilon_{i}, \quad\epsilon_{i} \sim N(0,\sigma^{2}). Je voudrais estimer l'intervalle de confiance (CI) des coefficients ( , ) en utilisant la méthode bootstrap. Il y a deux façons d'appliquer la méthode d'amorçage: β 1β0β0\beta_{0}β1β1\beta_{1} Exemple de …

1
Quelle fonction pourrait être un noyau?
Dans le contexte de l'apprentissage automatique et de la reconnaissance des formes, il existe un concept appelé Kernel Trick . Face à des problèmes où l'on me demande de déterminer si une fonction peut être une fonction noyau ou non, que faire exactement? Dois-je d'abord vérifier si elles ont la …




1
Rôle du paramètre n.minobsinnode de GBM dans R [fermé]
Il est peu probable que cette question aide les futurs visiteurs; il ne s'applique qu'à une petite zone géographique, à un moment précis ou à une situation extraordinairement étroite qui n'est généralement pas applicable au public mondial d'Internet. Pour obtenir de l'aide afin que cette question soit plus largement applicable, …
21 r  gbm 

3
Comment interpréter les effets principaux lorsque l'effet d'interaction n'est pas significatif?
J'ai exécuté un modèle mixte linéaire généralisé dans R et inclus un effet d'interaction entre deux prédicteurs. L'interaction n'était pas significative, mais les principaux effets (les deux prédicteurs) l'étaient tous les deux. Maintenant, de nombreux exemples de manuels me disent que s'il y a un effet significatif de l'interaction, les …




2
Pourquoi un avant sur la variance est-il considéré comme faible?
Contexte L'un des faibles a priori sur variance les plus couramment utilisés est le gamma inverse avec les paramètres (Gelman 2006) .α=0.001,β=0.001α=0.001,β=0.001\alpha =0.001, \beta=0.001 Cependant, cette distribution a un IC à 90% d'environ .[3×1019,∞][3×1019,∞][3\times10^{19},\infty] library(pscl) sapply(c(0.05, 0.95), function(x) qigamma(x, 0.001, 0.001)) [1] 3.362941e+19 Inf À partir de cela, j'interprète que …


2
PCA en numpy et sklearn produit des résultats différents
Suis-je mal comprendre quelque chose. C'est mon code en utilisant sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Production: array([[ …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.