Comme l'ont expliqué Selvaraju et al. , il existe trois étapes dans l’évolution de l’IA, dans lesquelles l’interprétabilité est utile.
Aux premiers stades du développement de l'IA, lorsque l'IA est plus faible que la performance humaine, la transparence peut nous aider à créer de meilleurs modèles . Cela permet de mieux comprendre le fonctionnement d'un modèle et nous aide à répondre à plusieurs questions clés. Par exemple, pourquoi un modèle fonctionne dans certains cas et ne fonctionne pas dans d'autres, pourquoi certains exemples le confondent plus que d'autres, pourquoi ces types de modèles fonctionnent et les autres pas, etc.
Lorsque l'IA est à égalité avec la performance humaine et que les modèles ML commencent à être déployés dans plusieurs industries, cela peut aider à renforcer la confiance pour ces modèles. Je développerai un peu ce sujet plus tard, car je pense que c'est la raison la plus importante.
Lorsque AI surclasse considérablement les humains (par exemple AI d'échecs de jeu ou Go), il peut aider à l' enseignement de la machine ( à savoir l' apprentissage de la machine sur la façon d'améliorer la performance humaine sur cette tâche spécifique).
Pourquoi la confiance est-elle si importante?
Tout d’abord, laissez-moi vous donner quelques exemples d’industries où la confiance est primordiale:
Dans le secteur de la santé, imaginez un réseau Deep Neural effectuant un diagnostic pour une maladie spécifique. Une boîte noire classique NN produirait simplement un "oui" ou un "non" binaire. Même si cela pouvait surpasser les humains en termes de prévisibilité, cela serait totalement inutile en pratique. Et si le médecin n’était pas d’accord avec l’évaluation du modèle, ne devrait-il pas savoir pourquoi le modèle a fait cette prédiction; peut-être qu'il a vu quelque chose que le médecin a raté. De plus, si un diagnostic erroné était posé (par exemple, une personne malade était classée comme étant en bonne santé et n'avait pas reçu le traitement approprié), qui en assumerait la responsabilité: l'utilisateur du modèle? l'hôpital? la société qui a conçu le modèle? Le cadre juridique qui l’entoure est un peu flou.
Un autre exemple est celui des voitures autonomes. Les mêmes questions se posent: si une voiture tombe en panne, de qui est-ce la faute du conducteur? le constructeur automobile? la société qui a conçu l'IA? La responsabilité juridique est la clé du développement de cette industrie.
En fait, ce manque de confiance a, selon beaucoup, entravé l' adoption de l'IA dans de nombreux domaines (sources: 1 , 2 , 3 ). Bien qu’il existe une hypothèse qui prévaut, avec des systèmes plus transparents, interprétables ou explicables, les utilisateurs seront mieux équipés pour comprendre les agents intelligents et donc leur faire confiance (sources: 1 , 2 , 3 ).
Dans plusieurs applications du monde réel, vous ne pouvez pas simplement dire "cela fonctionne 94% du temps". Vous devrez peut-être aussi fournir une justification ...
Réglementation gouvernementale
Plusieurs gouvernements s'emploient lentement à réglementer l'IA et la transparence semble être au centre de tout cela.
L’Union européenne est la première à s’orienter dans cette direction, qui a défini plusieurs lignes directrices selon lesquelles l’IA devrait être transparente (sources: 1 , 2 , 3 ). Par exemple, le GDPR indique que si les données d'une personne ont été soumises à des systèmes de "prise de décision automatisée" ou de "profilage", elle dispose alors d'un droit d'accès.
"informations significatives sur la logique impliquée"
( Article 15 du GDPR de l'UE )
C’est un peu flou, mais il est clair que ces systèmes ont pour objectif d’exiger une forme d’explicabilité. L'idée générale que l'UE essaie de faire passer est que "si vous avez un système de prise de décision automatisé affectant la vie des personnes, elles ont le droit de savoir pourquoi une décision a été prise". Par exemple, une banque a une demande de prêt acceptée ou refusée par AI, les demandeurs ont alors le droit de savoir pourquoi leur demande a été rejetée.
Pour résumer...
Des IA explicables sont nécessaires pour les raisons suivantes:
- Cela nous donne une meilleure compréhension, ce qui nous aide à les améliorer.
- Dans certains cas, l'IA peut apprendre à prendre de meilleures décisions dans certaines tâches.
- Cela aide les utilisateurs à faire confiance à l' IA, ce qui conduit à une adoption plus large de l'IA.
- Les IA déployées dans un avenir (pas trop éloigné) pourraient devoir être plus "transparentes".