L'intelligence artificielle est-elle vulnérable au piratage?
Inversez votre question un instant et pensez:
Qu'est-ce qui rendrait l'IA moins à risque de piratage par rapport à tout autre type de logiciel?
À la fin de la journée, le logiciel est un logiciel et il y aura toujours des bogues et des problèmes de sécurité. Les IA sont à risque pour tous les problèmes auxquels sont confrontés les logiciels non IA, étant donné que l'IA ne lui confère pas une sorte d'immunité.
Quant à la falsification spécifique à l'IA, l'IA risque d'être alimentée en fausses informations. Contrairement à la plupart des programmes, la fonctionnalité de l'IA est déterminée par les données qu'elle consomme.
Pour un exemple concret, il y a quelques années, Microsoft a créé un chatbot AI appelé Tay. Il a fallu moins de 24 heures aux gens de Twitter pour lui apprendre à dire "Nous allons construire un mur, et le Mexique va payer pour cela":
(Image tirée de l'article de Verge lié ci-dessous, je n'en revendique aucun crédit.)
Et ce n'est que la pointe de l'iceberg.
Quelques articles sur Tay:
Imaginez maintenant que ce n'était pas un bot de chat, imaginez que c'était un élément important de l'IA d'un avenir où l'IA est responsable de choses comme ne pas tuer les occupants d'une voiture (c'est-à-dire une voiture autonome) ou ne pas tuer un patient la table d'opération (c'est-à-dire une sorte d'équipement d'assistance médicale).
Certes, on pourrait espérer que de telles IA seraient mieux protégées contre de telles menaces, mais en supposant que quelqu'un ait trouvé un moyen de nourrir une telle masse d'IA de fausses informations sans être remarqué (après tout, les meilleurs pirates ne laissent aucune trace), cela pourrait véritablement signifier la différence entre la vie et la mort.
En utilisant l'exemple d'une voiture autonome, imaginez si de fausses données pourraient faire croire à la voiture qu'elle devait faire un arrêt d'urgence sur une autoroute. L'une des applications de l'IA médicale concerne les décisions de vie ou de mort aux urgences, imaginez si un pirate pourrait faire pencher la balance en faveur d'une mauvaise décision.
Comment pouvons-nous l'empêcher?
En fin de compte, l'ampleur du risque dépend de la façon dont les humains deviennent dépendants de l'IA. Par exemple, si les humains prenaient le jugement d'une IA et ne le mettaient jamais en doute, ils s'ouvriraient à toutes sortes de manipulations. Cependant, s'ils utilisent l'analyse de l'IA comme une seule partie du puzzle, il deviendrait plus facile de repérer lorsqu'une IA est erronée, que ce soit par des moyens accidentels ou malveillants.
Dans le cas d'un décideur médical, ne vous fiez pas seulement à l'IA, effectuez des tests physiques et obtenez également des opinions humaines. Si deux médecins ne sont pas d'accord avec l'IA, jetez le diagnostic de l'IA.
Dans le cas d'une voiture, une possibilité est d'avoir plusieurs systèmes redondants qui doivent essentiellement «voter» sur ce qu'il faut faire. Si une voiture avait plusieurs IA sur des systèmes distincts qui doivent voter sur l'action à entreprendre, un pirate devrait supprimer plus d'une IA pour prendre le contrôle ou provoquer une impasse. Surtout, si les IA fonctionnaient sur différents systèmes, la même exploitation utilisée sur l'un ne pourrait pas être effectuée sur un autre, augmentant encore la charge de travail du pirate.