Il y a eu récemment une hausse de l'intérêt pour e X plainable A Interieur I de renseignements sur le (Xai). Voici la mission de XAI comme indiqué sur sa page DARPA :
Le programme Explainable AI (XAI) vise à créer une suite de techniques d'apprentissage automatique qui:
- Produire des modèles plus explicables, tout en maintenant un haut niveau de performance d'apprentissage (précision des prédictions); et
- Permettre aux utilisateurs humains de comprendre, de faire confiance et de gérer efficacement la nouvelle génération de partenaires artificiellement intelligents.
L'article du New York Times peut-on apprendre à l'IA à s'expliquer? fait un bon travail pour expliquer le besoin de XAI du point de vue de l'intérêt humain ainsi que pour fournir un aperçu des techniques développées pour le même. La force derrière le mouvement XAI semble se concentrer sur le concept (en devenir?) De droit à l'explication , c'est-à-dire l'exigence que les applications d'IA qui ont un impact significatif sur la vie humaine via leurs décisions soient en mesure d'expliquer aux parties prenantes les facteurs / raisons qui ont mené à à ladite décision.
Comment le droit à l'explication est-il raisonnable, compte tenu des normes actuelles auxquelles nous nous tenons mutuellement responsables?