Je vais aborder la question sous un autre angle, à la lumière des principes très utiles de la gestion de l’incertitude évoqués dans les livres de George F. Klir sur les ensembles flous. Je ne peux pas donner à van der Laan l'exactitude, mais je peux fournir un cas assez exhaustif pour expliquer pourquoi son objectif est logiquement impossible; cela nécessitera une longue discussion faisant référence à d'autres domaines, alors supportez-moi.
Klir et ses co-auteurs divisent l'incertitude en plusieurs sous-types, tels que la non-spécificité (c'est-à-dire lorsque vous avez un ensemble inconnu d'alternatives, traitées par des moyens tels que la fonction de Hartley); imprécision dans les définitions (c'est-à-dire le "flou" modélisé et quantifié dans des ensembles flous); différend ou discorde en preuve (traité dans la théorie de la preuve de Dempster-Shafer); plus la théorie des probabilités, la théorie des possibilités et l’incertitude de mesure, l’objectif étant d’avoir une portée suffisante pour saisir les preuves pertinentes, tout en minimisant les erreurs. Je considère l'ensemble de la panoplie de techniques statistiques comme un moyen alternatif de partitionner l'incertitude de différentes manières, un peu comme un emporte-pièce; Les intervalles de confiance et les valeurs de valeurs p mettent l'incertitude en quarantaine d'une manière, tandis que des mesures telles que l'Entropie de Shannon la réduisent d'un autre angle. Ce qu'ils peuvent t faire, cependant, est de l’éliminer complètement. Pour parvenir à un "modèle exact" du type que semble décrire van der Laan, il faudrait réduire toutes ces incertitudes à zéro, afin qu'il ne reste plus rien à partitionner. Un modèle véritablement "exact" aurait toujours des valeurs de probabilité et de possibilité de 1, des scores de non-spécificité de 0 et aucune incertitude quant à la définition des termes, des plages de valeurs ou des échelles de mesure. Il n'y aurait pas de discorde dans d'autres sources de preuves. Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: du genre que van der Laan semble décrire, il faudrait réduire toutes ces incertitudes à zéro pour ne plus avoir à partitionner. Un modèle véritablement "exact" aurait toujours des valeurs de probabilité et de possibilité de 1, des scores de non-spécificité de 0 et aucune incertitude quant à la définition des termes, des plages de valeurs ou des échelles de mesure. Il n'y aurait pas de discorde dans d'autres sources de preuves. Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: du genre que van der Laan semble décrire, il faudrait réduire toutes ces incertitudes à zéro pour ne plus avoir à partitionner. Un modèle véritablement "exact" aurait toujours des valeurs de probabilité et de possibilité de 1, des scores de non-spécificité de 0 et aucune incertitude quant à la définition des termes, des plages de valeurs ou des échelles de mesure. Il n'y aurait pas de discorde dans d'autres sources de preuves. Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: Un modèle véritablement "exact" aurait toujours des valeurs de probabilité et de possibilité de 1, des scores de non-spécificité de 0 et aucune incertitude quant à la définition des termes, des plages de valeurs ou des échelles de mesure. Il n'y aurait pas de discorde dans d'autres sources de preuves. Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: Un modèle véritablement "exact" aurait toujours des valeurs de probabilité et de possibilité de 1, des scores de non-spécificité de 0 et aucune incertitude quant à la définition des termes, des plages de valeurs ou des échelles de mesure. Il n'y aurait pas de discorde dans d'autres sources de preuves. Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes: Les prédictions faites par un tel modèle seraient toujours exactes à 100%; Les modèles prédictifs répartissent essentiellement leur incertitude dans l’avenir, mais il n’en restera plus à redire. La perspective de l'incertitude a des implications importantes:
• Cet ordre de grandeur n'est pas seulement physiquement invraisemblable, il est logiquement impossible. Il est évident que nous ne pouvons pas réaliser d’échelles de mesure parfaitement continues avec des degrés infiniment petits, en rassemblant des observations finies à l’aide d’équipements scientifiques et physiques faillibles. il y aura toujours une certaine incertitude en termes d'échelle de mesure. De même, il y aura toujours un flou autour des définitions mêmes que nous utilisons dans nos expériences. L’avenir étant intrinsèquement incertain, les prévisions supposées parfaites de nos modèles «exacts» devront être traitées comme imparfaites jusqu’à preuve du contraire - ce qui prendrait une éternité.
• Pour aggraver les choses, aucune technique de mesure n'est à 100% exempte d'erreurs à un moment donné du processus et ne peut pas non plus être suffisamment détaillée pour englober toutes les informations éventuellement contradictoires de l'univers. En outre, l'élimination des éventuelles variables de confusion et une indépendance conditionnelle totale ne peuvent être prouvées de manière approfondie sans examiner tous les autres processus physiques qui affectent celui que nous examinons, ainsi que ceux qui affectent ces processus secondaires, etc.
• L'exactitude n'est possible que dans la logique pure et son sous-ensemble, les mathématiques, précisément parce que les abstractions sont dissociées des préoccupations du monde réel telles que ces sources d'incertitude. Par exemple, par pure logique déductive, nous pouvons prouver que 2 + 2 = 4 et que toute autre réponse est incorrecte à 100%. Nous pouvons aussi faire des prédictions parfaitement précises que ce sera toujours égal à 4. Ce type de précision n'est possible qu'en statistique lorsqu'il s'agit d'abstractions. Les statistiques sont extrêmement utiles lorsqu'elles sont appliquées au monde réel, mais ce qui les rend utiles introduit au moins un degré d'incertitude inévitable, le rendant ainsi inexact. C'est un dilemme inévitable.
• En outre, Peter Chu soulève des limitations supplémentaires dans la section des commentaires de l'article lié à. Il le dit mieux que moi:
"Cette surface de solution des problèmes NP-durs est généralement répandue dans de nombreux optima locaux et dans la plupart des cas, il est impossible en théorie de résoudre le problème, c'est-à-dire de trouver la solution globale optimale en général. Ainsi, chaque modélisateur utilise des techniques de modélisation (heuristiques), au mieux, trouver les solutions locales optimales adéquates dans le vaste espace de solutions de cette fonction objectif complexe. "
• Tout cela signifie que la science elle-même ne peut pas être parfaitement exacte, bien que van der Laan semble en parler ainsi dans son article; la méthode scientifique en tant que processus abstrait peut être définie avec précision, mais l'impossibilité d'une mesure exacte universelle et parfaite empêche de produire des modèles exacts sans incertitude. La science est un excellent outil, mais elle a des limites.
• Cela empire à partir de là: même s'il était possible de mesurer exactement toutes les forces agissant sur tous les quarks et gluons constitutifs de l'univers, il subsisterait quelques incertitudes . Premièrement, toute prédiction faite par un modèle aussi complet resterait incertaine en raison de l’existence de solutions multiples pour les équations quintiques et les polynômes supérieurs. Deuxièmement, nous ne pouvons pas être absolument certains que le scepticisme extrême inhérent à la question classique "Peut-être que tout cela est un rêve ou une hallucination" n'est pas un reflet de la réalité. Dans ce cas, tous nos modèles sont en réalité dans le pire des cas. . Ceci est fondamentalement équivalent à une interprétation ontologique plus extrême des formulations épistémologiques originales de philosophies telles que le phénoménalisme, l’idéalisme et le solipsisme.
• Dans son orthodoxe classique de 1909GK Chesterton a fait remarquer que les versions extrêmes de ces philosophies peuvent certes être jugées, mais qu'elles poussent ou non leurs croyants dans des institutions mentales; Le solipsisme ontologique, par exemple, est en réalité un marqueur de la schizophrénie, à l'instar de certains de ses cousins. Le mieux que nous puissions réaliser dans ce monde est d’éliminer les doutes raisonnables; un doute déraisonnable de ce genre dérangeant ne peut être éliminé de manière rigoureuse, même dans un monde hypothétique de modèles exacts, de mesures exhaustives et sans erreur. Si van der Laan cherche à nous débarrasser de tout doute déraisonnable, il joue avec le feu. En saisissant à la perfection, le bien fini que nous pouvons faire nous échappera des doigts; nous sommes des créatures finies existant dans un monde infini, ce qui signifie que le genre de connaissance complète et tout à fait certaine que soutient van der Laan est en permanence hors de notre portée. La seule façon de parvenir à ce type de certitude consiste à se retirer de ce monde dans les limites plus étroites du monde parfaitement abstrait que nous appelons «mathématiques pures». Cela ne signifie toutefois pas qu'un repli sur les mathématiques pures soit la solution pour éliminer l'incertitude. Telle était essentiellement l'approche adoptée par les successeurs de Ludwig Wittgenstein (1889-1951), qui vida sa philosophie du positivisme logique de tout sens commun en rejetant complètement la métaphysique et en se repliant entièrement dans les mathématiques et le scientisme purs, ainsi que dans le scepticisme extrême, surspécialisation et insistance excessive sur l'exactitude sur l'utilité. Au cours de ce processus, ils ont détruit la discipline de la philosophie en la dissolvant dans un fouillis de fignolures autour des définitions et de l'observation du nombril, la rendant ainsi inutile pour le reste du monde universitaire. Cela a essentiellement tué toute la discipline, qui était encore au premier plan du débat universitaire jusqu'au début du XXe siècle, au point de retenir l'attention des médias et de faire connaître certains de ses dirigeants. Ils ont saisi une explication parfaite et raffinée du monde et celui-ci leur a échappé des doigts - tout comme les patients souffrant de troubles mentaux dont GKC a parlé. Comme nous le verrons plus loin, cela va également échapper à van der Laan, qui a déjà réfuté ses propres arguments. La recherche de modèles trop précis n’est pas seulement impossible; cela peut être dangereux si on en arrive à une obsession vouée à l'échec. La poursuite de ce genre de pureté se termine rarement bien; c'est souvent aussi auto-destructeur que ces germophobes qui se frottent les mains si furieusement qu'ils se retrouvent avec des blessures infectées. Il' C évoque Icare essayant de voler le feu au soleil: en tant qu’êtres finis, nous ne pouvons avoir qu’une compréhension finie des choses. Comme le dit également Chesterton dans Orthodoxy, "C'est le logicien qui cherche à se mettre le ciel dans la tête. Et c'est sa tête qui se fend."
À la lumière de ce qui précède, permettez-moi de répondre à certaines des questions spécifiques énumérées par LVL:
1) Un modèle dépourvu de toute hypothèse est soit a) non conscient de ses propres hypothèses, soit b) doit être clairement dissocié de considérations qui introduisent une incertitude, telles que des erreurs de mesure, en tenant compte de chaque variable de confusion possible, des échelles de mesure parfaitement continues et des comme.
2) Je suis toujours un débutant en matière d’estimation du maximum de vraisemblance (MLE), je ne peux donc pas commenter les mécanismes de la vraisemblance cible, sauf pour souligner une évidence: la probabilité n’est que cela, une probabilité, pas une certitude . Pour obtenir un modèle exact, il faut éliminer complètement l'incertitude, ce que la logique probabiliste peut rarement faire, voire jamais.
3) Bien sûr que non. Étant donné que tous les modèles conservent une certaine incertitude et sont donc inexacts (sauf dans les cas de mathématiques pures, séparés des mesures physiques réelles), la race humaine n'aurait pu réaliser aucun progrès technologique à ce jour - ni même aucun autre progrès à ce jour. tout. Si des modèles inexacts étaient toujours inutiles, nous aurions cette conversation dans une caverne, plutôt que sur cet incroyable exploit technologique appelé Internet, tout cela étant rendu possible grâce à une modélisation inexacte.
Ironiquement, le propre modèle de van der Laan est un exemple primordial d’inexactitude. Son propre article esquisse un modèle de la manière dont le domaine de la statistique devrait être géré, dans le but de modèles exacts; À son avis, aucun modèle n'est encore associé à ce "modèle", aucune mesure de son inexactitude ou de son inutilité, aucune quantification de la distance qui nous sépare de sa vision, mais je suppose que l'on pourrait concevoir des tests pour ces éléments. . Dans l'état actuel des choses, son modèle est inexact. Si ce n'est pas utile, cela signifie que son argument est faux; s’il est utile, il réfute son argument principal, à savoir que les modèles inexacts ne sont pas utiles. De toute façon, il réfute sa propre argumentation.
4) Probablement pas, car nous ne pouvons pas disposer d'informations complètes pour tester notre modèle, pour les mêmes raisons que nous ne pouvons pas en déduire un modèle exact. Un modèle exact exigerait par définition une prévisibilité parfaite, mais même si les 100 premiers tests s'avéraient précis à 100%, le 101ème pourrait ne pas l'être. Il y a ensuite toute la question des échelles de mesure infinitésimales. Après cela, nous entrons dans toutes les autres sources d'incertitude, qui contamineront toute évaluation de la tour d'ivoire de notre modèle de tour d'ivoire.
5) Pour aborder le problème, je devais le situer dans le contexte plus large de problèmes philosophiques beaucoup plus vastes et souvent controversés. Je ne pense donc pas qu'il soit possible de discuter de cela sans entrer dans des opinions. source d’incertitude) mais vous avez raison, cet article mérite une réponse. Une grande partie de ce qu'il dit sur d'autres sujets va dans la bonne direction, comme la nécessité de rendre les statistiques pertinentes pour le Big Data, mais il existe un mélange d'extrémisme peu pratique qui devrait être corrigé.