Dans l'apprentissage informatique, le théorème de la NFL déclare qu'il n'y a pas d'apprenant universel. Pour chaque algorithme d'apprentissage, il existe une distribution qui amène l'apprenant à émettre une hypotesis avec une grande erreur, avec une probabilité élevée (bien qu'il y ait une hypotesis à faible erreur). La conclusion est que pour apprendre, la classe d'hypotesis ou les distributions doivent être restreintes. Dans leur livre "Une théorie probabiliste de la reconnaissance des formes", Devroye et al prouvent le thème suivant pour l'apprenant K-plus proche:
Où