Une intelligence artificielle éthique et responsable, c'est possible ?

Le 16/03/2021 dans "Digital"
Image

Une intelligence artificielle éthique et responsable, est-ce possible ?

Aujourd'hui, l'intelligence artificielle (IA) offre de très nombreuses promesses pour un monde plus efficace, mais ce n'est pas sans apporter son lot de craintes telles que d'importantes questions éthiques.

Serons-nous capables de garantir que l'humain garde le contrôle sur la technologie, et non l'inverse...

Grand sujet high tech à la mode, l'intelligence artificielle (IA) offre de très nombreuses promesses pour un monde plus efficace, mais apporte son lot de craintes. Et, force est de constater que certaines de ces craintes sont fondées. Cela étant dit, il n'est pas question d'évoquer un scénario de destruction du monde par des machines, mais bien celui d'une influence incontrôlable de la machine sur la vie humaine. Alors, l'IA peut-elle être limitée dans ses influences, ou au moins conçue de manière à respecter ce que nous, humains, considérons comme éthique et responsable ?





L’intelligence artificielle en 2021

Commençons par définir correctement ce concept encore en pleine évolution. S'il existe sur le marché des machines à laver intelligentes, ce n'est qu'un terme marketing censé faire vendre des machines programmées pour analyser le contenu du tambour et adapter le cycle de lavage en fonction. Ces machines sont incapables de prendre une décision autonome, elles exécutent une série d'instructions prédéfinies. 

Une véritable intelligence artificielle est une machine (électronique et/ou biologique mais créée par l'Homme) capable d'apprendre et de décider certaines choses par elle-même, voire de se montrer créative. Des machines IA sont déjà capables de rivaliser avec les humains au jeu d'échecs, dans des jeux vidéos, ou en rédaction d'articles de journaux. Les dernières avancées font état de programmes IA créant des sites web entiers sur base de quelques instructions primaires.

Mais, au-delà de ces exemples, peu de gens se rendent compte qu'ils interagissent quotidiennement avec des IA très puissantes dont le pouvoir ne cesse de s'étendre. Il s'agit des moteurs de recherche et des réseaux sociaux. Or, ceux-ci posent déjà de graves questions éthiques





Le problème des algorithmes du Big Data

À chaque fois que nous nous connectons au Web, sans le savoir nous fournissons des informations (des datas) à toutes sortes de programmes. Même l'horaire de connexion est une information très utile : les IA apprennent nos habitudes et leurs algorithmes savent où et quand nous trouver, ou bien à quel moment essayer d'attirer notre attention. Leur objectif reste, à priori, quelque peu innocent : elles doivent simplement générer du profit en exposant les utilisateurs à un maximum de publicités.



Mais si l'intention de base reste purement financière, les IA ont appris par elles-mêmes (deep learning) à nous influencer pour parvenir à leurs fins. Elles attirent notre attention en nous abreuvant d'informations personnalisées orientées dans notre sens et, ce faisant, elles peuvent aller jusqu’à radicaliser nos opinions politiques. Ceci explique en partie la montée des populismes (voir l’élection de Trump ou le Brexit) et des fanatismes ou des théories du complot (Terre plate, Cancel culture,...). À partir du moment où nous sommes manipulés dans nos opinions, pulsions et libertés, la question éthique se pose inévitablement.



Que faire pour rendre l'IA plus éthique, plus responsable ?


 Si l'IA prend le pouvoir sur de plus en plus d'aspects de nos vies (information, opinions, santé, mobilité...), qui sera tenu responsable en cas d'erreur de calcul ? Et qui pourra seulement trouver l'erreur si le processus manque de transparence ? 

En Europe, la première réponse fut donnée en 2019, par l'adoption d'une Charte par la Commission européenne pour l'efficacité de la justice (CEPEJ). Cette charte demande que l'IA utilisée dans le fonctionnement judiciaire respecte les droits fondamentaux des êtres humains et notamment le respect des données à caractère personnel.



Sauf contretemps, début 2021 la Commission européenne devrait présenter une proposition législative imposant le contrôle humain sur l'IA, et la constitution d'un système de responsabilité civile pour protéger les personnes physiques et morales. L'objectif est donc de garantir que l'humain garde le contrôle sur la technologie, et non l'inverse.

Par ailleurs, notons aussi que la CE s'attaque aux monopoles des géants de l'informatique qui exploitent ces IA contestées (les GAFAM). Une lutte de grande ampleur est engagée et son objet n'est rien de moins que notre libre arbitre. 







Dans la même catégorie

06/09/2017
Digital à l’international : quels sont les pays gagnants ?
Une récente étude réalisée par l’Université Tufts (Etats-Unis), en collaboration avec MasterCard, a dévoilé le classemen...
Lire la suite
16/11/2017
Silicom présente sa nouvelle identité visuelle
La marque n’a pas attendu la fin de l’année pour prendre des résolutions. Désormais, la société sera à l’image de son hi...
Lire la suite
21/11/2017
SILICOM soutient l’association « Enfants du Mékong »
Silicom est, depuis 2016, un partenaire actif de l'association Enfant du Mékong et souhaite participer à son programme d...
Lire la suite