J'ai lu les réponses existantes sur CrossValidated (et ailleurs en ligne) et je ne trouve pas ce que je recherche, mais veuillez me signaler les sources existantes si je les ai manquées.
Disons que j'ai un ensemble de données de N = 1000 enregistrements, dont chacun peut être échantillonné manuellement et étiqueté comme 'Valide' ou 'Invalide' (ou Vrai / Faux, Droite / Mauvais, etc.).
Je veux atteindre un niveau de confiance donné que tous les enregistrements de l'ensemble de données sont valides. Lorsque j'échantillonne des enregistrements, si j'en trouve un seul invalide, je reviens en arrière et modifie la façon dont l'ensemble de données est créé pour corriger cela et des problèmes similaires.
Donc, après quelques itérations de repérage des invalides, de correction et de recréation de l'ensemble de données, je fais un échantillonnage qui n'inclut que les enregistrements valides. Si je veux être (par exemple) sûr à 99% ou à 95% que tous les enregistrements sont valides, quelle doit être la taille de mon échantillon? (Idéalement en fonction de N.)
J'ai essayé de jouer avec des tests hypergéométriques ( http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test ) - dans ce contexte, je veux savoir ce que k devrait être, mais je n'ai pas de valeur fixe de K Je préfère plutôt choisir k de telle sorte que K soit probablement égal à N - mais définir K = N équivaut évidemment à une probabilité de 1! Je me demande également si je dois utiliser une approche bayésienne, mais je ne comprends pas assez les statistiques bayésiennes.