Questions théoriques sur l'apprentissage automatique, en particulier la théorie de l'apprentissage informatique, y compris la théorie de l'apprentissage algorithmique, l'apprentissage PAC et l'inférence bayésienne
Soit une distribution sur des paires chaîne de bits / étiquette et soit une collection de fonctions booléennes . Pour chaque fonction , soit: et soit: OPT (C, D) = \ min_ {f \ in C} \ err (f, D) Disons qu'un algorithme A apprend agnostiquement C sur n'importe quelle …
Il est bien connu que pour une classe de concept de dimension VC , il suffit d'obtenir exemples étiquetés pour PAC learn . Il n'est pas clair pour moi si l'algorithme d'apprentissage PAC (qui utilise ces nombreux échantillons) est approprié ou inapproprié? Dans les manuels de Kearns et Vazirani ainsi …
Récemment, j'ai lu un nombre décent d'articles CoLT. Bien que je ne lutte pas avec les articles individuels (du moins pas plus que d'habitude avec les autres articles théoriques), je ne pense pas avoir une bonne compréhension du domaine dans son ensemble. Existe-t-il un texte standard, des sondages ou des …
Je suis assez familier avec la théorie derrière VC-Dimension, mais je regarde maintenant les progrès récents (10 dernières années) dans la théorie de l'apprentissage statistique: moyennes Rademacher (locales), Lemme de classe finie de Massart, Covering Numbers, Chaining, Dudley's Théorème, pseudodimension, dimension d'éclatement des graisses, numéros d'emballage, composition de Rademacher et …
Il est bien connu que pour l'apprentissage PAC classique, des exemples de sont nécessaires afin d'obtenir une limite d'erreur de ε whp, où d est la dimension VC de la classe de concept.Ω ( d/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Est-il connu que des exemples de sont nécessaires dans le cas agnostique?Ω(d/ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)
Quels classificateurs d'apprentissage automatique sont les plus parallélisables? Si vous aviez un problème de classification difficile, un temps limité, mais un réseau local décent d'ordinateurs avec lesquels travailler, quels classificateurs essayeriez-vous? D'un côté, il me semble que certains classificateurs standard que je connais se cumulent comme suit, mais je peux …
Plus précisément, je demande des ressources pour en savoir plus sur les systèmes d'apprentissage automatique qui peuvent mettre à jour leurs réseaux de croyances respectifs (ou équivalent) pendant le fonctionnement. J'en ai même rencontré quelques-uns, même si je n'ai pas réussi à les mettre en signet. Comme vous pouvez l'imaginer, …
Après les succès de plus en plus récents des réseaux de neurones dans les jeux de société, on sent que le prochain objectif que nous nous sommes fixé pourrait être quelque chose de plus utile que de battre les humains dans Starcraft. Plus précisément, je me demandais si Les réseaux …
Les forêts aléatoires ont la réputation parmi les praticiens d'être parmi les techniques de classification les plus efficaces. Pourtant, nous ne les rencontrons pas beaucoup dans la littérature de la théorie de l'apprentissage, dont je présume une absence de résultats théoriques profonds. Si l'on voulait approfondir cette théorie, par où …
Supposons que j'ai points dans R d . Ceux-ci induisent un diagramme de Voronoi. Si j'attribue à chacun des k points une étiquette ± , ceux-ci induisent une fonction binaire sur R d . Question: quelle est la dimension VC de toutes ces fonctions binaires possibles induites par certains k …
Background––––––––––––––Background_\underline{\bf Background} En 2005, Regev [1] a introduit le problème d'apprentissage avec erreurs (LWE), une généralisation du problème de parité d'apprentissage avec erreur. L'hypothèse de la dureté de ce problème pour certains choix de paramètres sous-tend désormais les preuves de sécurité pour une multitude de cryptosystèmes post-quantiques dans le domaine …
Je recherche la dimension VC du système d'ensemble suivant. Univers tel que . Dans le système d'ensemble chaque ensemble correspond à une sphère dans sorte que l'ensemble contient un élément dans si et seulement si la sphère correspondante le contient dans .U={p1,p2,…,pm}U={p1,p2,…,pm}U=\{p_1,p_2,\ldots,p_m\}U⊆R3U⊆R3U\subseteq \mathbb{R}^3RR\mathcal{R}S∈RS∈RS\in \mathcal{R}R3R3\mathbb{R}^3SSSUUUR3R3\mathbb{R}^3 Des détails que je connais déjà. …
Je veux dire spécifiquement les familles de langues qui admettent des chaînes arbitrairement longues - pas des conjonctions sur n bits ou des listes de décisions ou tout autre langage "simple" contenu dans {0,1} ^ n. Je pose des questions sur les langages normaux "théoriques des automates" par opposition aux …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.