Je lis donc "Introduction to Machine Learning" 2e édition, par Bishop, et. tout. À la page 27, ils discutent de la dimension Vapnik-Chervonenkis qui est,
"Le nombre maximum de points qui peuvent être brisés par H [la classe d'hypothèses] est appelé la dimension Vapnik-Chervonenkis (VC) de H, est noté VC (H) et mesure la capacité de H."
Alors que "briser" indique une hypothèse pour un ensemble de N points de données de telle sorte qu'il sépare les exemples positifs du négatif. Dans un tel exemple, il est dit que "H brise N points".
Jusqu'à présent, je pense que je comprends cela. Cependant, les auteurs me perdent avec ce qui suit:
"Par exemple, quatre points sur une ligne ne peuvent pas être brisés par des rectangles."
Il doit y avoir un concept ici que je ne comprends pas complètement, car je ne comprends pas pourquoi c'est le cas. Quelqu'un peut-il m'expliquer cela?