Questions marquées «naive-bayes»

Un classificateur naïf de Bayes est un classificateur probabiliste simple basé sur l'application du théorème de Bayes avec de fortes hypothèses d'indépendance. Un terme plus descriptif pour le modèle de probabilité sous-jacent serait «modèle de caractéristiques indépendant».

3
Un exemple: régression LASSO utilisant glmnet pour les résultats binaires
Je commence à me familiariser avec l’utilisation de glmnetavec LASSO Regression, où mon résultat d’intérêt est dichotomique. J'ai créé un petit cadre de données fictif ci-dessous: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

3
Comprendre les Naives Bayes
Extrait de StatSoft, Inc. (2013), Manuel de statistiques électroniques , "Naive Bayes Classifier" : Pour illustrer le concept de classification naïve de Bayes, considérons l'exemple présenté dans l'illustration ci-dessus. Comme indiqué, les objets peuvent être classés en VERT ou en ROUGE. Ma tâche consiste à classer les nouveaux cas au …


3
Comment Naive Bayes est-il un classificateur linéaire?
J'ai vu l'autre fil ici, mais je ne pense pas que la réponse ait satisfait la question réelle. Ce que j'ai continuellement lu, c'est que Naive Bayes est un classificateur linéaire (ex: ici ) (tel qu'il trace une frontière de décision linéaire) en utilisant la démonstration des cotes logarithmiques. Cependant, …


7
Dans Naive Bayes, pourquoi s'embêter avec le lissage de Laplace alors que nous avons des mots inconnus dans le test?
Je lisais aujourd'hui la classification Naive Bayes. J'ai lu, sous le titre d' estimation des paramètres avec l'ajout de 1 lissage : Soit référence à une classe (telle que positive ou négative), et référence à un jeton ou à un mot.cccwww L'estimateur du maximum de vraisemblance pour estP( w | …

3
Apprentissage automatique pour prédire les probabilités de classe
Je recherche des classificateurs qui produisent des probabilités que les exemples appartiennent à l'une des deux classes. Je connais la régression logistique et les Bayes naïfs, mais pouvez-vous m'en parler d'autres qui fonctionnent de manière similaire? Autrement dit, les classificateurs qui prédisent non pas les classes auxquelles appartiennent les exemples, …


3
Quels algorithmes nécessitent une mise à l'échelle des fonctionnalités, à côté de SVM?
Je travaille avec de nombreux algorithmes: RandomForest, DecisionTrees, NaiveBayes, SVM (kernel = linear et rbf), KNN, LDA et XGBoost. Tous étaient assez rapides à l'exception de SVM. C'est à ce moment que j'ai appris qu'il avait besoin d'une mise à l'échelle des fonctionnalités pour fonctionner plus rapidement. Ensuite, j'ai commencé …

3
Dans le lissage de Kneser-Ney, comment les mots invisibles sont-ils traités?
D'après ce que j'ai vu, la formule de lissage (de second ordre) de Kneser-Ney est d'une manière ou d'une autre donnée comme P2KN(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn)PKN2(wn|wn−1)=max{C(wn−1,wn)−D,0}∑w′C(wn−1,w′)+λ(wn−1)×Pcont(wn) \begin{align} P^2_{KN}(w_n|w_{n-1}) &= \frac{\max \left\{ C\left(w_{n-1}, w_n\right) - D, 0\right\}}{\sum_{w'} C\left(w_{n-1}, w'\right)} + \lambda(w_{n-1}) \times P_{cont}(w_n) \end{align} avec le facteur de normalisation λ(wn−1)λ(wn−1)\lambda(w_{n-1}) donné comme λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙)λ(wn−1)=D∑w′C(wn−1,w′)×N1+(wn−1∙) \begin{align} …

3
Pourquoi personne n'utilise le classificateur bayésien multinomial Naive Bayes?
Ainsi, dans la modélisation de texte (non supervisée), l'allocation de Dirichlet latent (LDA) est une version bayésienne de l'analyse sémantique probabiliste latente (PLSA). Essentiellement, LDA = PLSA + Dirichlet prioritaire sur ses paramètres. Ma compréhension est que LDA est maintenant l'algorithme de référence et est implémenté dans divers packages, tandis …

2
L'augmentation du nombre de fonctionnalités entraîne une baisse de la précision mais une augmentation du préc / rappel
Je suis nouveau dans le Machine Learning. En ce moment, j'utilise un classifieur Naive Bayes (NB) pour classer les petits textes en 3 classes comme positifs, négatifs ou neutres, en utilisant NLTK et python. Après avoir effectué quelques tests, avec un ensemble de données composé de 300 000 instances (16 …




En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.