Freiner l’IA incontrôlable et se concentrer sur les gens

L’ouvrage examine les technologies de l’IA dans plusieurs contextes, notamment l’agriculture, les milieux de travail, les soins de santé, la justice pénale et l’enseignement supérieur.

L’ouvrage examine les technologies de l’IA dans plusieurs contextes, notamment l’agriculture, les milieux de travail, les soins de santé, la justice pénale et l’enseignement supérieur.

Crédit : Getty

En 5 secondes

Dans un nouvel ouvrage dirigé entre autres par Catherine Régis et Jean-Louis Denis, de l’UdeM, des spécialistes de divers pays et disciplines prônent une approche de l’IA plus centrée sur l’humain.

Pierre Larouche

Pierre Larouche

Crédit : Université de Montréal

Les entreprises doivent cesser de concevoir de nouvelles technologies d’intelligence artificielle (IA) simplement parce qu’elles le peuvent et les gens doivent cesser d’adapter leurs pratiques, leurs habitudes et leurs lois à ces nouvelles technologies. Au contraire, l’intelligence artificielle devrait être conçue pour répondre exactement aux besoins réels des individus.

C’est, du moins, le point de vue de 50 experts mondiaux qui ont contribué à la rédaction d’articles de recherche pour le nouvel ouvrage Human-Centered AI, coédité par deux professeurs de l’Université de Montréal, qui explore les risques – et les occasions manquées – du statu quo et les moyens de l’améliorer.

Aux yeux de Pierre Larouche, professeur titulaire spécialisé dans le droit de la concurrence et vice-doyen de la Faculté de droit de l’UdeM, un moyen efficace d’y parvenir serait d’actualiser les mécanismes juridiques, qui sont à l'heure actuelle nettement inadéquats en la matière.

En traitant l’intelligence artificielle comme «un objet distinct du droit et des règlementations» et en supposant qu’il n’existe «aucune loi actuellement applicable à l’IA», certains décideurs politiques se sont sentis inadaptés vis-à-vis d'une tâche qu’ils considèrent comme insurmontable, selon le professeur.

«Malgré la rareté, voire l’absence totale, de règles précises concernant l’IA comme telle, il ne manque pas de lois pouvant s’y appliquer en raison de son intégration dans les relations sociales et économiques», déclare-t-il.

Le défi n’est donc pas de créer de nouvelles lois, mais d’étendre les lois existantes à l’IA et de les appliquer. De cette façon, les décideurs politiques ne tomberont pas dans le piège des «tactiques dilatoires visant à prolonger indéfiniment les discussions, alors que la technologie continue de progresser rapidement», soutient-il.

Benjamin Prud’homme, avocat et vice-président aux politiques publiques, à la société et aux affaires mondiales à Mila – l’Institut québécois d’intelligence artificielle –, affilié à l’UdeM, l’une des plus grandes communautés universitaires consacrées à l’IA, est d’accord.

Il exhorte les décideurs politiques à «s’éloigner de la dichotomie qui existe entre l’innovation et la règlementation et à reconnaître qu’il peut être acceptable de freiner l’innovation si celle-ci est irresponsable».

Me Prud’homme cite l’Union européenne comme exemple de proactivité à cet égard grâce à sa «très ambitieuse loi sur l’IA, la première loi systémique sur l’intelligence artificielle, qui devrait être certainement approuvée dans les prochains mois».

Catherine Régis

Catherine Régis

Crédit : Amélie Philibert, Université de Montréal

Sous la direction des professeurs de l’UdeM Catherine Régis, spécialisée en droit de la santé, et Jean-Louis Denis, spécialisé en santé publique, et de Maria Luciana Axente, de l’Université de Cambridge, et d'Atsuo Kishimoto, de l’Université d’Osaka, Human-Centered AI réunit des spécialistes de plusieurs disciplines allant de l’éducation à la gestion en passant par la science politique.

L’ouvrage examine les technologies de l’IA dans plusieurs contextes, notamment l’agriculture, les milieux de travail, les soins de santé, la justice pénale et l’enseignement supérieur, et propose des approches de la règlementation axées sur l’être humain ainsi que des méthodes de travail sous le signe de l'interdisciplinarité afin que l’intelligence artificielle tienne davantage compte des besoins humains.

Shannon Vallor, professeure de philosophie à l’Université d’Édimbourg, cite l’IA générative, de plus en plus populaire, comme un exemple de technologie qui n’est pas centrée sur l’être humain. Selon elle, cette technologie a été créée par des organisations qui veulent simplement voir à quel point elles peuvent rendre un système puissant, plutôt que de créer «quelque chose conçu par nous, pour nous et en notre faveur».

D’autres auteurs de ce nouveau livre examinent la portée de l’IA sur le comportement humain (par le biais de Google, de Facebook et d’autres plateformes), le manque de données que possède l’intelligence artificelle sur les minorités, ce qui favorise leur marginalisation, ainsi que la façon dont elle porte atteinte à la vie privée, les utilisateurs ne connaissant pas la manière dont leurs informations sont collectées et stockées.

À propos de ce livre

L'ouvrage Human-centered AI: A multidisciplinary perspective for policy-makers, auditors and users, sous la direction de Catherine Régis, Jean-Louis Denis, Maria Luciana Axente et Atsuo Kishimoto, a été publié le 27 mars 2024 par Chapman & Hall et imprimé par CRC Press au Royaume-Uni.