Abstracts
Abstract
This article examines responsible AI as a public law-like movement that seeks to (self)regulate the design and use of AI systems. Using socio-legal methods, and the Montréal Declaration for a Responsible Development of Artificial Intelligence as an illustrate example, it explores responsible AI’s upshots for digital government. Responsible AI initiatives, this article argues, rely on two binary distinctions: (1) between artificial and natural intelligence, and (2) between the future and present/past effects of AI systems. These conceptual binaries “bind” such initiatives to an impoverished understanding of what AI systems are, how they operate, and how they might be governed. To realize justice and fairness, especially in digital government, responsible AI projects must reconceive of AI systems and their regulation infrastructurally and agonistically.
Résumé
Cet article examine l’IA responsable comme un mouvement de type droit public qui cherche à (auto)réglementer la conception et l’utilisation des systèmes d’IA. En utilisant des méthodes socio-juridiques et la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle comme exemple illustratif, il explore les retombées de l’IA responsable pour le gouvernement numérique. Selon cet article, les initiatives en matière d’IA responsable reposent sur deux distinctions binaires : (1) entre l’intelligence artificielle et l’intelligence naturelle, et (2) entre les effets futurs et présents/passés des systèmes d’IA. Ces binaires conceptuels « lient » de telles initiatives à une compréhension appauvrie de ce que sont les systèmes d’IA, de leur fonctionnement et de la manière dont ils pourraient être gouvernés. Pour réaliser la justice et l’équité, en particulier dans le gouvernement numérique, les projets d’IA responsables doivent reconcevoir les systèmes d’IA et leur réglementation de manière infrastructurelle et agonistique.