En octobre 2014, le Dr Mark Riedl a publié une approche pour tester l'intelligence artificielle, appelée "Lovelace Test 2.0" , après avoir été inspirée par le test Lovelace original (publié en 2001). Mark croyait que le test Lovelace original serait impossible à passer, et a donc suggéré une version plus faible et plus pratique.
Le test Lovelace 2.0 suppose que pour qu'une IA soit intelligente, elle doit faire preuve de créativité. Du papier lui-même:
Le test Lovelace 2.0 est le suivant: l'agent artificiel a est mis à l'épreuve comme suit:
a doit créer un artefact o de type t;
o doit être conforme à un ensemble de contraintes C où ci ∈ C est tout critère exprimable en langage naturel;
un évaluateur humain h, ayant choisi t et C, est convaincu que o est une instance valide de t et rencontre C; et
un arbitre humain r détermine que la combinaison de t et C n'est pas irréaliste pour un humain moyen.
Puisqu'il est possible pour un évaluateur humain de proposer des contraintes assez faciles à battre pour une IA, l'évaluateur humain devrait alors continuer à proposer des contraintes de plus en plus complexes pour l'IA jusqu'à ce que l'IA échoue. Le but du test Lovelace 2.0 est de comparer la créativité de différentes IA, et non de fournir une ligne de démarcation précise entre «intelligence» et «non-intelligence» comme le ferait le test de Turing.
Cependant, je suis curieux de savoir si ce test a réellement été utilisé dans un cadre universitaire, ou s'il n'est considéré que comme une expérience de pensée pour le moment. Le test Lovelace semble facile à appliquer en milieu universitaire (il vous suffit de développer des contraintes mesurables que vous pouvez utiliser pour tester l'agent artificiel), mais il peut également être trop subjectif (les humains peuvent être en désaccord sur le bien-fondé de certaines contraintes et savoir si un artefact créatif produit par une IA atteint en fait le résultat final).