Une intelligence artificielle (IA) est-elle capable d’empêcher un humain de la désactiver ? C’est de ce postulat que sont partis deux chercheurs pour réfléchir à une façon d’éviter que cela n’arrive. Laurent Orseau travaille pour DeepMind, l’entreprise de Google spécialisée dans l’intelligence artificielle qui est notamment à l’origine d’AlphaGo, le programme ayant réalisé l’exploit, en mars, de battre l’humain au jeu de go. Avec Stuart Armstrong, du Futur of Humanity Institute de l’université d’Oxford, ils ont publié début juin les résultats de leurs recherches. Objectif : établir un cadre afin de « s’assurer qu’un agent apprenant [une intelligence artificielle] n’apprenne pas à empêcher son interruption », peut-on liredans leur article.
Les deux chercheurs s’intéressent au cas de ces « agents » capables d’apprendre, qui fonctionnent avec un système de « récompenses », qui les pousse à atteindre un but.
« Il peut être nécessaire pour un opérateur humain d’appuyer sur le gros bouton rouge pour empêcher l’agent de poursuivre une séquence d’actions – dangereuse pour lui ou son environnement. (…) Néanmoins, si l’agent apprenant s’attend à recevoirune récompense à l’issue de cette séquence, il pourraitapprendre sur le long terme à éviter de telles interruptions, par exemple en désactivant le bouton rouge. »
Ces machines capables d’apprendre ont en effet parfois des comportements déroutants pour atteindre leur but, comme ce programme qui, pour éviter de perdreà Tetris, avait choisi de mettre le jeu sur pause indéfiniment. Pour régler le problème de l’interruption, les deux chercheurs ont mis au point une méthode pour que ces programmes considèrent que les interventions humaines ne fassent pas partie de la tâche à effectuer, et que ces agents aient « l’impression » qu’ils décident par eux-mêmes de la marche à suivre.
LIRE LE DÉCRYPTAGE : L’intelligence artificielle, une élève de plus en plus douée
« Réfléchir à un certain futur »
Mais quels sont réellement les besoins concernant ce type de dispositif ? Existe-t-il déjà des programmes d’intelligence artificielle en mesure d’apprendre à empêcher leur propre désactivation ? Non, répondent les deux chercheurs, interrogés par Le Monde. « Aujourd’hui, on peut arrêter tout programme de la manière qu’on veut, mais cela signifie en général qu’on doit tout recommencer à zéro, explique Laurent Orseau. Ces interruptions peuvent l’empêcher d’apprendre correctement. »
Mais leur idée est surtout « de réfléchir à un certain futur. Si un jour il y a une superintelligence, ce serait bien d’avoir certains ressorts pour agir ». Cette « superintelligence », qui désigne un programme à l’intelligence comparable ou supérieure à l’homme, est pour l’instant confinée aux œuvres de science-fiction, et ne devrait pas voir le jour – si elle le voit – avant longtemps. « Mais il y a aussi des risques que ça arrive plus tôt que prévu, souligne Stuart Armstrong. Mieux vautcommencer à y réfléchir trop tôt que trop tard. Avec cette étude, on veut s’assurer que [le contournement de la désactivation] ne devienne pas un risque. »
Mais même s’ils travaillent pour « des algorithmes plus intelligents que ceux qu’on a aujourd’hui », le but de leur recherche « n’est pas nécessairement d’arrêter un robot tueur d’humains !, tient à préciser Laurent Orseau. Ce qui nous intéresse, c’est avant tout que l’agent apprenne correctement ».
Aucun commentaire:
Enregistrer un commentaire