Je me demande si quelqu'un peut me donner l'intuition derrière pourquoi la positivité stricte des types de données inductifs garantit une forte normalisation.
Pour être clair, je vois comment avoir des occurrences négatives conduit à la divergence, c'est-à-dire en définissant:
data X where Intro : (X->X) -> X
nous pouvons écrire une fonction divergente.
Mais je me demande, comment pouvons-nous prouver que les types inductifs strictement positifs ne permettent pas la divergence? Existe-t-il une mesure d'induction qui nous permet de construire une preuve de forte normalisation (en utilisant des relations logiques ou similaires)? Et où une telle preuve se décompose-t-elle pour les événements négatifs? Y a-t-il de bonnes références qui montrent une forte normalisation pour une langue avec des types inductifs?