J'ai des questions inspirées du récent scandale du recrutement en Amazonie, où elles ont été accusées de discrimination à l'égard des femmes dans leur processus de recrutement. Plus d'infos ici :
Les spécialistes de l'apprentissage automatique d'Amazon.com Inc ont découvert un gros problème: leur nouveau moteur de recrutement n'aimait pas les femmes.
L'équipe avait développé des programmes informatiques depuis 2014 pour examiner les CV des candidats dans le but de mécaniser la recherche des meilleurs talents ...
... ...
... Mais en 2015, la société a réalisé que son nouveau système ne notait pas les candidats aux postes de développeur de logiciels et autres postes techniques d'une manière non sexiste.
En effet, les modèles informatiques d'Amazon ont été formés pour examiner les candidats en observant les tendances des CV soumis à l'entreprise sur une période de 10 ans. La plupart venaient d'hommes, un reflet de la domination masculine dans l'industrie technologique. (Pour un graphique sur la répartition des sexes dans la technologie, voir: ici ) En effet, le système d'Amazon a appris par lui-même que les candidats masculins étaient préférables. Il a pénalisé les curriculum vitae qui comprenaient le mot «femmes», comme dans «capitaine du club d'échecs féminin». Et il a rétrogradé les diplômées de deux collèges entièrement féminins, selon des personnes familières avec le sujet. Ils n'ont pas précisé les noms des écoles.
Amazon a édité les programmes pour les rendre neutres par rapport à ces termes particuliers. Mais ce n'était pas une garantie que les machines ne concevraient pas d'autres moyens de trier les candidats qui pourraient s'avérer discriminatoires, ont déclaré les gens.
La société de Seattle a finalement dissous l'équipe au début de l'année dernière parce que les cadres ont perdu espoir pour le projet ...
... L'expérience de la société ... propose une étude de cas sur les limites de l'apprentissage automatique.
... des informaticiens comme Nihar Shah, qui enseigne l'apprentissage automatique à l'Université Carnegie Mellon, disent qu'il y a encore beaucoup de travail à faire.
"Comment s'assurer que l'algorithme est juste, comment s'assurer que l'algorithme est vraiment interprétable et explicable - c'est encore assez loin", a-t-il déclaré.MASCULINE LANGUAGE
[Amazon] a mis en place une équipe dans le centre d'ingénierie d'Amazon à Édimbourg qui compte une douzaine de personnes. Leur objectif était de développer une intelligence artificielle capable d'explorer rapidement le Web et de repérer des candidats qui méritent d'être recrutés, ont déclaré des personnes proches du dossier.
Le groupe a créé 500 modèles informatiques axés sur des fonctions et des emplacements spécifiques. Ils ont appris à chacun à reconnaître quelque 50 000 termes qui figuraient dans les curriculum vitae des anciens candidats. Les algorithmes ont appris à attribuer peu d'importance aux compétences communes aux candidats en informatique, telles que la capacité d'écrire divers codes informatiques ...
Au lieu de cela, la technologie a favorisé les candidats qui se décrivaient en utilisant des verbes plus courants sur les curriculum vitae des ingénieurs masculins, tels que "exécuté" et "capturé", a déclaré une personne.
Disons que je veux construire un modèle statistique pour prédire une sortie à partir de données personnelles, comme un classement cinq étoiles pour aider à recruter de nouvelles personnes. Disons que je veux également éviter la discrimination fondée sur le sexe, en tant que contrainte éthique. Étant donné deux profils strictement égaux en dehors du sexe, la sortie du modèle devrait être la même.
Dois-je utiliser le sexe (ou toute donnée qui y est corrélée) comme entrée et essayer de corriger leur effet, ou éviter d'utiliser ces données?
Comment vérifier l'absence de discrimination fondée sur le sexe?
Comment puis-je corriger mon modèle pour les données qui sont statistiquement discriminantes mais je ne veux pas l'être pour des raisons éthiques?