Je lis le livre de Kevin Murphy: Machine Learning-A probabilistic Perspective. Dans le premier chapitre, l'auteur explique la malédiction de la dimensionnalité et il y a une partie que je ne comprends pas. À titre d'exemple, l'auteur déclare:
Considérez que les entrées sont uniformément réparties le long d'un cube unitaire en dimension D. Supposons que nous estimons la densité des étiquettes de classe en faisant croître un hyper cube autour de x jusqu'à ce qu'il contienne la fraction souhaitée des points de données. La longueur de bord attendue de ce cube est .
C'est la dernière formule que je n'arrive pas à comprendre. il semble que si vous voulez couvrir disons 10% des points que la longueur du bord doit être de 0,1 le long de chaque dimension? Je sais que mon raisonnement est faux mais je ne comprends pas pourquoi.