Pourquoi l'éthique n'est-elle pas plus intégrée dans les systèmes d'IA actuels?


9

Je suis un doctorant en informatique, et je crée actuellement un aperçu de l'état de l'art dans les applications faites en machine éthique (un domaine multidisciplinaire combinant philosophie et IA, qui cherche à créer des programmes ou agents éthiques explicites). Il semble que le domaine contienne principalement des arguments théoriques et il y a relativement peu d'implémentations, même s'il y a beaucoup de personnes ayant une formation technique dans le domaine.

Je comprends que, parce que l'éthique est impliquée, il n'y a pas de vérité fondamentale et comme cela fait partie de la philosophie, on peut se perdre à discuter du type d'éthique à mettre en œuvre et de la meilleure façon de le faire. Cependant, en informatique, il est habituel d'essayer même une implémentation simple pour montrer les possibilités ou les limites de votre approche.

Quelles sont les raisons possibles pour lesquelles il est si peu fait pour implémenter explicitement l'éthique dans l'IA et l'expérimenter?


2
Des exemples d'approches peuvent être trouvés dans ce document et ce document de synthèse.
Suzanne

Réponses:


2

C'est nécessairement une réponse de haut niveau et hautement spéculative, mais j'ai réfléchi à cette question, et voici mes réflexions:

  • La mise en œuvre d'algorithmes éthiques nécessite une base mathématique pour la philosophie car les ordinateurs sont des moteurs de différence

Après le fameux échec de Russell & Whitehead et le théorème d'incomplétude de Gödel, cela semble poser problème.

  • L'IA est un domaine hautement appliqué, en particulier aujourd'hui par la validation continue de l'apprentissage en profondeur, et aucune entreprise ne veut aborder la question de l'éthique à moins d'être obligée de

Ainsi, vous le voyez dans les voitures autonomes parce que les ingénieurs n'ont d'autre choix que de s'attaquer au problème. En revanche, je ne pense pas que vous verrez beaucoup de sociétés de négociation d'actions algorithmiques, où l'activité est l'efficacité Pareto , se souciant de l'éthique ou des impacts sociaux de la spéculation financière. (La solution aux «plantages instantanés» semble avoir été des règles de suspension temporaire du commerce, au lieu de s'attaquer à la valeur sociale du commerce algorithmique à haute fréquence.) Un exemple plus évident est que les sociétés de médias sociaux ignorent les quantités extrêmes d'abus d'informations (désinformation) et désinformation) affichés sur leurs sites, plaidant l'ignorance, ce qui est très suspect en ce que l'activité générée par l'abus d'informations affecte positivement leurs résultats.

  • Les domaines appliqués ont tendance à être principalement tirés par le profit

La principale directive des sociétés est de rendre un bénéfice aux investisseurs. Il n'est pas rare que les entreprises enfreignent la loi lorsque les amendes et les pénalités devraient être inférieures au profit réalisé par une activité illégale. (Il y a le concept d'éthique dans les affaires, mais la culture en général semble juger les gens et les entreprises en fonction de l'argent qu'ils gagnent, quels qu'en soient les moyens.)

  • La mise en œuvre de l'éthique des machines est à l'étude dans les domaines où ils sont nécessaires pour vendre le produit, mais ailleurs, c'est encore largement hypothétique

Si les superintelligences évoluent et anéantissent l'humanité (comme nous le disent certaines personnes très intelligentes avec des compétences supérieures en mathématiques), ce sera une fonction de la nature, où l'évolution sans restriction de ces algorithmes est due à des moteurs économiques qui se concentrent sur l'hyper - des automates partisans dans des secteurs comme la spéculation financière et la guerre autonome. Essentiellement, la poursuite des profits à tout prix, quels que soient les impacts.


Prise intéressante, l'aspect profit! Je n'y avais pas pensé depuis que j'étais tellement concentré sur les raisons de la recherche, mais il est logique qu'il n'y ait aucune pression de l'industrie pour que la recherche poursuive ses recherches.
Suzanne

@SuzanneTolmeijer Merci. Je m'intéresse à la façon dont la théorie des jeux se connecte à l'éthique depuis quelques années maintenant. (Principalement, la première philosophie où, par exemple, "l'équilibre" était dit être le "bon" - l'équilibre est une fonction d'équilibre et peut être précisément et mathématiquement défini. Il se rapporte à l'économie en ce sens que la stabilité est généralement considérée comme optimale, l'instabilité est potentiellement catastrophique.) Mais je ne suis pas le seul contributeur à l'IA à avoir abordé les moteurs économiques dans ce domaine, et les dangers potentiels de ce que j'appelle "l'IA hyperpartisan".
DukeZhou

1

Je pense qu'une partie du problème de savoir pourquoi il existe très peu de mises en œuvre éthiques des technologies d'IA / ML, est tout simplement parce qu'il n'y a pas besoin ou une bonne application des cadres théoriques.

J'entends par là, il n'y a aucun moyen substantiel d'appliquer cette compréhension aux algorithmes et aux modèles qui ne peuvent pas interagir de manière significative. Nous avons un si grand cadre théorique sur la sécurité / l'éthique de l'IA, car il est extrêmement important. Nous devons trouver des directives sûres pour la mise en œuvre d'une IA forte avant sa création.

Certains articles très ciblés ont commencé à réduire les problèmes de création de systèmes d'IA éthiques / sûrs. Voir les problèmes concrets de sécurité de l'IA


Il semble qu'il y ait un besoin d'éthique explicite, au moins de nombreux chercheurs appellent à l'avancement d'une éthique explicite (par exemple Moor 2006 ). En termes de bonne application des cadres théoriques, vous avez peut-être raison: la mise en œuvre implique une certaine interprétation dans certains cas, ce qui peut s'avérer difficile. Cependant, vous convenez que des directives sûres pour l'IA sont importantes, ce qui signifie des directives pratiques sur ce que nous considérons comme «juste» ou «éthique» pour nos machines. Ces directives impliqueront comment implémenter l'éthique dans les machines d'une manière ou d'une autre.
Suzanne

1

Avec la méthode de l'imitation, le comportement le plus approprié peut être intégré à l'intelligence artificielle. L'intelligence artificielle peut être remodelée lorsque la position éthique change. Il est utilisé à des fins idéologiques ou pour recueillir des informations. Ce n'est pas clair ce qu'est le robot.


1

Nous pouvons prendre en compte le modèle d'erreur. La reconnaissance du biais et de la variance des performances sous les réseaux de neurones peut être une première étape. Et puis nous pouvons discuter si une telle performance est autorisée. À notre connaissance, la pratique de l'ethnie nécessite une étude empirique et sur le terrain. nous ne pouvons pas simplement prendre des justifications et des essais sur papier pour déterminer si les actions des machines apprises sont mauvaises ou non. Il peut être divisé en accidents, erreurs ou même bogues créés par les développeurs.


Un point intéressant que vous soulevez ici est fondamentalement, quelles mesures peuvent être utilisées pour tester le système, et comment déterminez-vous si le système fonctionne correctement? C'est quelque chose qui manque sur le terrain, et je pense que cela fait partie du problème: comment tester votre système sans vérité de terrain? Quelles (dimensions dans) les mesures ont un sens dans le contexte d'algorithmes éthiques explicites? Sans cela, vous n'avez aucun moyen de comparer les systèmes, ce qui limite les progrès sur le terrain.
Suzanne

1

Intuitivement, il semble qu'il y ait peu de recherches sur la mise en œuvre de l'éthique de l'IA car:

  1. La société dans son ensemble semble confortablement d'accord sur le fait que l'état actuel de l'intelligence artificielle n'est pas assez fort pour être considéré comme conscient ou sensible. Ainsi, nous n'avons pas (encore) besoin de lui donner des droits éthiques.

  2. La mise en œuvre d'un comportement éthique dans un programme nécessite une méthode permettant aux ordinateurs d'être capables d'interpréter le «sens», ce que nous ne savons pas encore faire.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.