Questions marquées «machine-learning»

Questions théoriques sur l'apprentissage automatique, en particulier la théorie de l'apprentissage informatique, y compris la théorie de l'apprentissage algorithmique, l'apprentissage PAC et l'inférence bayésienne

2
Apprentissage des triangles dans l'avion
J'ai assigné à mes élèves le problème de trouver un triangle cohérent avec une collection de points dans , étiqueté avec . (Un triangle est cohérent avec l'échantillon étiqueté si contient tous les points positifs et aucun des points négatifs; par hypothèse, l'échantillon admet au moins 1 triangle cohérent).mmmR2R2\mathbb{R}^2±1±1\pm1TTTTTT Le …

1
Quel est le compromis entre la taille de la population et le nombre de générations dans les algorithmes génétiques
Les algorithmes génétiques évoluent en moins de générations avec une population plus importante, mais prennent également plus de temps pour calculer une génération. Existe-t-il des lignes directrices pour équilibrer ces deux facteurs, afin d'arriver à une solution viable le plus rapidement possible? Est-ce aussi le meilleur endroit pour la question?

3
Algorithmes de modèle de requête statistique?
J'ai posé cette question dans des questions- réponses validées de manière croisée, mais il semble qu'elle soit beaucoup plus liée à CS qu'aux statistiques. Pouvez-vous me donner des exemples d'algorithmes d'apprentissage automatique qui apprennent des propriétés statistiques de l'ensemble de données et non des observations individuelles elles-mêmes, c'est-à-dire qui utilisent …


1
Demande de référence: minimisation submodulaire et fonctions booléennes monotones
Contexte: En apprentissage automatique, nous travaillons souvent avec des modèles graphiques pour représenter des fonctions de densité de probabilité dimensionnelle élevée. Si nous rejetons la contrainte qu'une densité intègre (somme) à 1, nous obtenons une fonction d'énergie structurée graphiquement non normalisée . Supposons que nous ayons une telle fonction d'énergie, …



3
Quand utiliser le lemme de Johnson-Lindenstrauss sur SVD?
Le lemme de Johnson-Lindenstrauss permet de représenter des points dans un espace de grande dimension en points de dimension inférieure. Lors de la recherche d'espaces de dimension inférieure de meilleur ajustement, une technique standard consiste à trouver la décomposition des valeurs singulières, puis à prendre le sous-espace généré par les …



1
Étant donné
Voici un problème avec une saveur similaire à l'apprentissage des juntes: Entrée: Une fonction F: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , représentée par un oracle d'appartenance, c'est-à-dire un oracle qui a donné XXx , renvoie F( x )F(X)f(x) . Objectif: trouver …

1
Résultats des limites inférieures / dureté Noisy Parity (LWE)
Quelques antécédents: Je suis intéressé à trouver des limites inférieures (ou des résultats de dureté) "moins connues" pour le problème d'apprentissage avec des erreurs (LWE), et des généralisations de celui-ci comme l'apprentissage avec des erreurs sur des anneaux. Pour des définitions spécifiques, etc., voici une belle enquête de Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf …

1
Comment les agrégations de bases de données forment-elles un monoïde?
Sur cs.stackexchange, j'ai posé des questions sur la bibliothèque d' algebird scala sur github, spéculant sur les raisons pour lesquelles ils pourraient avoir besoin d'un paquet d'algèbre abstrait. La page github contient quelques indices: Implémentations de Monoids pour des algorithmes d'approximation intéressants, tels que le filtre Bloom, HyperLogLog et CountMinSketch. …

1
Limites inférieures pour l'apprentissage dans la requête d'appartenance et le modèle de contre-exemple
Dana Angluin ( 1987 ; pdf ) définit un modèle d'apprentissage avec des requêtes d'appartenance et des requêtes théoriques (contre-exemples d'une fonction proposée). Elle montre qu'un langage régulier qui est représenté par un DFA minimal de états peut être appris en temps polynomial (où les fonctions proposées sont des DFA) …

5
Existe-t-il une technique basée sur la descente de gradient pour rechercher le minimum absolu (maximum) d'une fonction dans un espace multidimensionnel?
Je connais l'algorithme de descente de gradient qui peut trouver le minimum local (maximum) d'une fonction donnée. Y a-t-il une modification de la descente du gradient qui permet de trouver le minimum absolu (maximum), où la fonction a plusieurs extrema locaux? Existe-t-il des techniques générales, comment améliorer un algorithme qui …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.