Vue aérienne du campus et du canal Rideau

Appel à une interdiction internationale de l'intelligence artificielle comme arme

Les membres de la communauté de recherche en intelligence artificielle exhortent le Premier ministre du Canada à se joindre à la Demande visant à interdire à l’échelle internationale les armes létales autonomes opérant sans contrôle humain significatif lors du déploiement d’une force meurtrière.

#InterdireIAtueuse

Une lettre ouverte rédigée par cinq spécialistes canadiens en matière de recherche sur l’intelligence artificielle exhorte le Premier ministre à régler sans délai la question des armes létales autonomes (souvent appelées « robots tueurs ») et à adopter une position de chef de file contre les Systèmes d’armes létales autonomes sur la scène internationale, lors des prochaines réunions de l’ONU à Genève.

Les auteur(e)s de la lettre sont :

  • Ian Kerr, titulaire de la Chaire de recherche du Canada en éthique, droit et technologie, Université d’Ottawa,
  • Yoshua Bengio, titulaire de la Chaire de recherche du Canada en algorithmes d'apprentissage statistique, Université de Montréal,
  • Geoffrey Hinton, Fellow en génie chez Google et conseiller scientifique en chef, The Vector Institute,
  • Rich Sutton, titulaire de la Chaire AITF en apprentissage par renforcement et intelligence artificielle, Université de l’Alberta,
  • Doina Precup, titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université McGill

Lettre ouverte au Premier ministre du Canada

2 novembre 2017

Le très honorable Justin Trudeau, C.P., M.P.
Premier ministre du Canada
Édifice Langevin, 80 rue Wellington
Ottawa, Ontario
K1A 0A

Monsieur le Premier ministre,


OBJET: UNE INTERDICTION INTERNATIONALE DE LA MILITARISATION DE L’INTELLIGENCE ARTIFICIELLE

En notre qualité de membres de la communauté de recherche canadienne en intelligence artificielle (IA), nous tenons à vous remercier de l’intérêt que vous manifestez envers le domaine de l’IA en général et pour l’investissement considérable que le Canada octroie actuellement à la recherche et à l’innovation en matière d’IA.

Comme vous le savez, la recherche au sujet de l’IA, soit les tentatives de fabriquer des machines aptes à accomplir des tâches intelligentes, a réalisé des progrès spectaculaires au cours de la dernière décennie. L’évolution de l’IA classique, propulsée par les rapides percées réalisées en matière d’apprentissage automatique, a exacerbé les ambitions de la communauté de l’IA de construire des machines aptes à effectuer des opérations complexes avec ou sans supervision ou intervention humaine. Une profusion d’applications soutient déjà une variété croissante de produits de consommation destinés à améliorer l’infrastructure, les transports, l’éducation, la santé, les arts, l’armée, la médecine et le commerce. L’IA revêt une importance de nature transformatrice. Ces transformations, réelles et potentielles, exigent non seulement notre compréhension mais également, et de plus en plus, notre attention morale aiguisée.

C’est pour toutes ces raisons que la communauté canadienne de recherche en intelligence artificielle vous exhorte, vous et votre gouvernement, à faire du Canada le 20e pays du monde à s’élever, à l’échelle internationale, contre la militarisation de l’IA. Les systèmes d’armes létales autonomes dépourvues de contrôle humain significatif pour ce qui est de déterminer la légitimité des cibles et le déploiement d’une force meurtrière équivalent à se placer du mauvais côté de la ligne morale établie. À cette fin, nous demandons au Canada d’annoncer son appui à la demande visant à interdire les systèmes d’armes létales autonomes lors de la prochaine Conférence de l’ONU relative à la Convention des Nations unies sur certaines armes classiques (CCW). Le Canada devrait en outre s’engager à œuvrer avec d’autres États en vue de conclure un nouvel accord international qui contribuerait à réaliser un tel objectif. Ce faisant, notre gouvernement réaffirmera ainsi son leadership moral sur la scène internationale comme il l’avait fait avec le Traité d'Ottawa - la Convention internationale sur l'interdiction des mines antipersonnel adoptée en 1996, à l'instigation de notre ministre des Affaires étrangères de l’époque, Lloyd Axworthy, que votre père avait nommé au Cabinet fédéral.

Nous nous réjouissons que la Convention ait décidé de former un Groupe d’experts gouvernementaux sur les systèmes d’armes autonomes. À cet égard, bon nombre de membres de notre communauté de recherche sont impatients de mettre leur expertise à la disposition du gouvernement du Canada. Comme l’ont récemment soulevé de nombreuses entreprises parmi les plus importantes du monde en matière d’IA et de robotique, y compris des sociétés canadiennes, les systèmes d’armes autonomes risquent de devenir la troisième révolution guerrière. Advenant l’élaboration de tels systèmes, les conflits armés pourraient se dérouler à une échelle jamais vue auparavant et à une vitesse que les humains ne sont même pas en mesure de concevoir. La conséquence tragique de ce phénomène est que ce seront des machines—et non des personnes—qui auront droit de vie ou de mort sur les populations. La communauté canadienne de recherche en IA ne saurait approuver une telle utilisation, son objectif principal étant d’étudier, de concevoir et de promouvoir la recherche en IA à des fins bénéfiques.

Le solide leadership que le Canada continue de démontrer grâce à son implication dans la technologie et l’innovation assoira notre réputation de chef de file international en matière de développement technologique de l’IA uniquement dans la mesure où cet investissement tient également compte de ses répercussions élargies sur les plans juridique, éthique et social. Nous vous exhortons par conséquent à adopter une position ferme de chef de file à l’encontre des systèmes d’armes létales autonomes sur la scène internationale lors des prochaines réunions de la CCW prévues en novembre 2017 aux Nations Unies.


Nous vous prions d’agréer, Monsieur le Premier ministre, l’expression de notre très haute considération.
 
 

Ian Kerr
Chaire de recherche du Canada en éthique, droit et technologie, Université d’Ottawa

Yoshua Bengio
Chaire de recherche du Canada en algorithmes d'apprentissage statistique, Université de Montréal

Geoffrey Hinton 
Fellow en génie chez Google et conseiller scientifique en chef, The Vector Institute

Rich Sutton
Chaire AITF en apprentissage par renforcement et intelligence artificielle, Université de l’Alberta

Doina Precup
Chaire de recherche du Canada en apprentissage automatique, Université McGill

Copie à: Hon. Navdeep Bains, ministre de l'Innovation, des Sciences et du Développement économique
Hon. Chrystia Freeland, ministre des Affaires étrangères
Hon. Harjit S. Sajjan, ministre de la Défense nationale
Hon. Kirsty Duncan, ministre des Sciences
Mona Nemer, Conseillère scientifique en chef

Signataires

(Déroulez pour découvrir plus de 200 signataires, ou cliquez-ici pour ouvrir dans une nouvelle fenêtre. Les signatures sont affichées dans la langue de choix du signataire.)

Trousse pour les médias

La communauté canadienne des chercheuses et chercheurs en matière d’intelligence artificielle (IA) exhorte le gouvernement à faire du Canada le 20e pays du monde à s’élever, à l’échelle internationale, contre la militarisation de l’IA, soit en interdisant tout système d’IA dépourvu de contrôle humain significatif pour ce qui est de déterminer la légitimité des cibles et le déploiement d’une force meurtrière.

La trousse des médias comprend des renseignements généraux, des biographies et des citations des auteurs de la lettre ainsi que la liste des personnes ressources à contacter pour les médias.

Contexte

  • La recherche et le développement de l’IA, soit les tentatives de fabriquer des machines aptes à accomplir des tâches intelligentes, ont réalisé des progrès spectaculaires au cours de la dernière décennie.
  • Le gouvernement du Premier ministre Trudeau a manifesté un profond intérêt pour le domaine de l’intelligence artificielle en général et a d’ailleurs octroyé un investissement considérable d’un montant de 125 millions de $ à la recherche et à l’innovation en matière d’IA.
  • Grâce aux rapides percées réalisées en matière d’apprentissage automatique, les machines sont à présent en mesure d’effectuer bon nombre d’opérations complexes avec ou sans supervision et/ou intervention humaine.
  • Des applications soutiennent déjà une variété croissante de produits de consommation destinés à améliorer l’infrastructure, les transports, l’éducation, la santé, les arts, l’armée, la médecine, et le commerce.
  • Nous avons assisté au cours des dernières années à une hausse effrénée du développement de systèmes d’armes létales autonomes dépourvues de tout contrôle humain significatif pour ce qui est de déterminer la légitimité des cibles.
  • Bon nombre des entreprises les plus importantes du monde en matière d’IA et de robotique, y compris des sociétés canadiennes, considèrent que les systèmes d’armes autonomes constituent de graves menaces. Advenant l’élaboration de tels systèmes, les conflits armés pourraient se dérouler à une échelle jamais vue auparavant et à une vitesse que les humains ne sont même pas en mesure de concevoir.
  • La Convention des Nations unies sur certaines armes classiques a été adoptée dans le but d’interdire ou de limiter l’emploi de certains types particuliers d’armes qui sont réputées infliger des souffrances inutiles ou injustifiables aux combattants, ou frapper sans discrimination les civils.
  • La Convention a formé un Groupe d’experts gouvernementaux sur les systèmes d’armes autonomes et organisera une conférence pour ce groupe à Genève, en Suisse, du 13 au 17 novembre 2017.
  • Le Canada a, par le passé, fait preuve d’un leadership moral sur la scène internationale avec le Traité d'Ottawa (la Convention internationale sur l'interdiction des mines antipersonnel) en 1996, sous la direction de notre ministre des Affaires étrangères de l’époque, Lloyd Axworthy.
  • La communauté canadienne de la recherche en IA exhorte le Premier ministre Trudeau à réaffirmer le leadership moral du Canada sur la scène mondiale en œuvrant avec d’autres États en vue de conclure un nouvel accord international visant à interdire les armes létales autonomes.

Auteur(e)s

Ian R. Kerr

Ian Kerr

Titulaire de la Chaire de recherche du Canada en éthique, droit et technologie, Université d’Ottawa

Ian Kerr est professeur titulaire en plus d’être titulaire de la Chaire de recherche du Canada en éthique, droit et technologie, à la Faculté de droit de l’Université d’Ottawa avec des affectations conjointes à la faculté de médecine, au département de philosophie et à l’École des sciences de l'information. Il est un pionnier dans le domaine en plein essor de l’IA et du droit de la robotique et un chef de file mondial en matière de protection de la vie privée. Les recherches qu’il poursuit au sujet de la protection de la vie privée se concentrent sur l’interaction entre les technologies de surveillance émergentes des secteurs public et privé, les libertés civiles et les droits de la personne. Plus récemment, son nouvel ouvrage intitulé Robot Law examine la question de la délégation de tâches humaines et de prise de décisions à des machines dans le but d’élaborer des cadres pour la gouvernance de la robotique et de l’intelligence artificielle. 

Yoshua Bengio

Yoshua Bengio

Titulaire de la Chaire de recherche du Canada en algorithmes d'apprentissage statistique, Université de Montréal

Yoshua Bengio est professeur titulaire au Département d’informatique et de recherche opérationnelle à l’Université de Montréal, et directeur de l’Institut des algorithmes d’apprentissage de Montréal (MILA). Il est en outre co-directeur du Programme sur les machines et les cerveaux de l'Institut canadien de recherches avancées (ICRA) et titulaire de la Chaire de recherche du Canada en algorithmes d'apprentissage statistique. Sa principale mission de recherche consiste à comprendre les principes d’apprentissage qui produisent l’intelligence. Yoshua Bengio est actuellement rédacteur pour le Journal of Machine Learning Research, rédacteur adjoint pour la revue Neural Computation, rédacteur pour la revue Foundations and Trends in Machine Learning, et a été rédacteur adjoint pour le Machine Learning Journal et le IEEE Transactions on Neural Networks.

Geoffrey Hinton

Geoffrey Hinton

Fellow en génie pour Google et conseiller scientifique en chef, The Vector Institute

Geoffrey Hinton mène des recherches sur la manière dont on peut utiliser les réseaux neuronaux pour l’apprentissage, la mémoire, la perception et le traitement des symboles. Il est l’un des chercheurs à avoir introduit le concept d’algorithme de rétropropagation largement utilisé dans des applications pratiques en apprentissage profond. Parmi ses autres contributions à la recherche sur les réseaux neuronaux, citons notamment les machines Boltzmann, les représentations distribuées, les réseaux neuronaux de temporisation, les mélanges d’experts, les machines Helmholtz et les produits d’experts. Il se penche actuellement sur les procédures d’apprentissage non supervisées pour les réseaux neuronaux avec intrant sensoriel riche. 

Rich Sutton

Rich Sutton

Titulaire de la Chaire AITF en apprentissage par renforcement et intelligence artificielle, Université de l’Alberta

Richard Sutton concentre ses recherches sur l’amélioration de notre compréhension de l’intelligence par le truchement des modèles informatiques d’apprentissage. Il cherche à circonscrire les principes généraux informatiques qui sous-tendent l’intelligence et le comportement axé sur l'objectif en vue d’améliorer le rendement et la fiabilité des systèmes d’apprentissage. Il explore les manières de représenter les connaissances humaines en termes d’expérience, en cherchant à réduire la dépendance aux connaissances manuellement encodées.

Doina Precup

Doina Precup

Titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université McGill

Doina Precup concentre ses recherches dans le domaine de l’apprentissage automatique. Elle s’intéresse tout particulièrement aux problèmes d’apprentissage auxquels se heurtent les décideurs qui œuvrent dans un environnement complexe et incertain. Doina se sert du cadre de l’apprentissage par renforcement afin de s’attaquer à ce type de problèmes. Ses travaux actuels de recherche sont axés sur l’élaboration de meilleurs modèles de représentation des connaissances pour les agents d’apprentissage par renforcement. De façon plus générale, elle s’intéresse au raisonnement dans des conditions d’incertitude et aux applications des techniques d'apprentissage automatique aux problèmes du monde réel.  

Citations

Ian Kerr:
“Bien que des citoyens engagés signent chaque jour des pétitions, il est rare que des chefs d’entreprises, des scientifiques et des technologues réclament des interdictions à l’égard d’innovations de quelque sorte que ce soit, et encore moins un bannissement total. Ce bannissement revêt une signification de la plus haute importance. La communauté canadienne de recherche en IA est sans équivoque : nous ne devons pas permettre que l’IA puisse cibler ou tuer en l’absence d’un contrôle humain significatif.”

“Déléguer des décisions de vie ou de mort à des machines équivaut à franchir une ligne morale fondamentale, peu importe quel côté les construit ou les utilise. Jouer à la roulette russe avec la vie d’autrui ne saurait en aucun cas être justifié au seul motif de l’efficacité. Il ne s’agit pas seulement d’une question fondamentale de droits de la personne. La décision de bannir ou d’autoriser des armes autonomes réside au cœur même de notre humanité.”

Yoshua Bengio:  
“Diriger la recherche en matière d’IA implique également qu’il faille agir de manière responsable à cet égard.”

Geoff Hinton:
“L’intelligence artificielle (IA) peut certes améliorer la vie des gens de bien des manières, les chercheurs doivent cependant promouvoir les applications positives d’une telle technologie en appuyant l’interdiction des systèmes d’armes autonomes.”

Rich Sutton:  
“La technologie de l’IA n’est pas intrinsèquement bonne ou mauvaise. C’est à nous qu’il revient de veiller à ce qu’elle soit utilisée à bon escient.”

Doina Precup:  
“L’IA a le formidable potentiel de devenir une force dans la société. En tant que membre de la communauté de la recherche en IA, j’estime qu’il est de notre devoir moral de veiller à ce qu’elle continue de se développer dans cette direction, et à l’empêcher d’être détournée à des fins préjudiciables.”

Personnes-ressources pour les médias

Contact principal :

Ian Kerr
Titulaire de la Chaire de recherche du Canada en éthique, droit et technologie
Université d’Ottawa
613-562-5800 ext. 3281
[email protected]
 

Pour les questions techniques :

Yoshua Bengio
Titulaire de la Chaire de recherche du Canada en algorithmes d'apprentissage statistique, Université de Montréal
514-343-6804
[email protected]
 

Doina Precup
Titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université McGill
514-398-6443
[email protected]

Couverture

"Les experts appellent à interdire l’intelligence artificielle tueuse", Gazette, Université d'Ottawa, 6 novembre 2017.
"Top experts urge global ban on AI that kills," The Gazette, University of Ottawa, November 6, 2017.
"Weaponized AI would have deadly, catastrophic consequences. Where will Canada side?", Ian Kerr/Opinion, The Globe and Mail, November 6, 2017.
"Ban killer robots, experts urge Australian and Canadian leaders", The Guardian, November 6, 2017.
"Weaponised AI crosses a moral line and must be banned: AI researchers", Mashable, November 6, 2017.
"Canada’s AI Experts Backing Ban on Killer Robots", Techvibes, November 7, 2017.
"Los investigadores de inteligencia artificial presionan a sus gobiernos para que prohíban la creación de "robots asesinos", Xataka, November 7, 2017.
"Killer Robots: AI Experts Urge Ban on Weaponized AI with 'Life and Death Powers over Humans'", Newsweek, November 7, 2017.
"'Killer Robots' that can decide whether people live or die must be banned, warn hundreds of experts", The Independent, November 7, 2017.
"‘Weapons of mass destruction:’ AI experts urge govts to ban ‘killer robots’ in apocalyptic message", RT, November 7, 2017
"Canadian AI Experts Urge for Global Ban on Killer Robots", BetaKit, November 8, 2017
"Artificial intelligence will soon be used to create 'weapons of mass destruction'", Internal Business Times, November 8, 2017
 

"Killer robots: Australia’s AI leaders urge PM to support a ban on lethal autonomous weapons", UNSW, November 7, 2017.
"Dear Prime Minister: we’d like you to join the call for a ban on killer robots", The Conversation AU, November 6, 2017.
"'Outlaw killer AI', robotics experts tell Malcolm Turnbull," The Sydney Morning Herald, November 7, 2017

Reactions: