(Photo: 123rf.com)
BLOGUE INVITÉ. Voilà quelques semaines, j’étais à Bruxelles pour me joindre au nouveau groupe de réflexion de la Commission européenne sur l’intelligence artificielle. Nous sommes 52 experts avec des profils très variés: industriels, chercheurs, universitaires et professionnels de la société civile. La raison d’être de ce groupe: réfléchir à une stratégie pour faire face aux enjeux de l’IA. Seul Canadien à siéger au groupe, je ne suis pas peu fier!
Parmi les objectifs que nous souhaitons atteindre, nous devrons proposer à la Commission des lignes directrices pour garantir que des valeurs telles que la sécurité, la justice, la transparence, la démocratie et les droits fondamentaux feront partie intégrante du développement de l’intelligence artificielle.
Autrement dit, il s’agit d’un cadre éthique.
Le mot est sur toutes les lèvres au sein de la communauté de l’IA. L’éthique, c’est un sujet très vaste, on est tous d’accord! Au-delà des bonnes intentions, je ne suis pas certain que tout le monde réalise la complexité de la tâche d’implanter un cadre éthique pour le bon fonctionnement des systèmes d’intelligence artificielle.
Plusieurs se fient sur les lois pour faire office de cadre éthique. Or, les lois servent à baliser le comportement des individus en société. Elles ne disent rien sur les comportements automatisés!
L’intelligence artificielle n'a pas de balises morales
Deux facteurs font que le cadre dans lequel l’intelligence artificielle change.
Premièrement, nous évoluons tous dans une société qui nous fournit un cadre, composé de lois et de normes. La famille, l’école, les amis, le gouvernement et le milieu du travail font tous partie de ce cadre et nous inculquent ces lois et ces normes. Au fil du temps, on apprend et on s’adapte. Cela dit, nous savons faire preuve de jugement critique. Par exemple, quand quelque chose nous paraît insensé au travail, on pose des questions. Or, dans une machine intelligente, tous ces apprentissages d’une vie complète prennent le champ! Un système d’IA n’a pas de balises morales.
Deuxièmement, avant l’ère numérique, toutes nos lois, nos principes moraux, nos us et coutumes évoluaient au sein du monde physique. Maintenant, à l’ère numérique, bien des limites imposées par le monde physique n’existent plus, avec pour résultat que des opérations autrefois impossibles à réaliser sont devenues possibles.
Par exemple, l’enregistrement et la diffusion de nos conversations privées, l’envoi de messages biaisés à des électeurs ciblés, le ciblage d’un individu précis dans une foule de 5000 personnes sont maintenant des opérations tout à fait possibles. Par contre, possible ne veut pas dire acceptable dans une société qui respecte le droit à la vie privée et à la démocratie…
À la lumière de ces deux nouveaux facteurs, on se doit comme société de recadrer et de redéfinir les paramètres du vivre ensemble.
Comment transmettre nos valeurs et leur évolution, quelles qu’elles soient, dans un langage que pourront comprendre les machines? Comment établir les frontières entre ce qui est acceptable et ce qui ne l’est pas et comment s’assurer que ces frontières seront respectées?
Voilà ce sur quoi réfléchissent plusieurs organisations dans le monde, dont l’Europe, l’OCDE et le G7, qui s’y est engagé lors du sommet à Charlevoix. Le Canada travaille actuellement sur une stratégie. En revanche, aux États-Unis, le gouvernement Trump s’est contenté de dire qu’il laissait les entreprises s’auto-discipliner.
Des dérapages, de Cambridge Analytica à Tesla
Des dérapages sont déjà survenus : pensons au scandale de Cambridge Analytica qui a permis d’avoir accès à des quantités d’informations personnelles autrefois impossibles à obtenir et de les transformer en données inférées qui auraient été utilisées pour manipuler des électeurs. Vous êtes père de famille, habitez dans quartier précis, possédez une arme, etc. : vous pourriez être une cible parfaite pour un parti politique et on vous aurait envoyé des informations biaisées pour vous inciter à voter pour ce parti. Cette affaire a poussé Facebook à revoir ses politiques de confidentialité.
Dans le système criminel aux États-Unis, on a utilisé un modèle d’apprentissage de données en intelligence artificielle auquel on n’a pas donné de contexte. Le résultat, c’est que le modèle a prédit qu’une personne de race noire sur trois deviendrait un criminel. Ce qui est erroné.
Un autre cas est celui du système d’aide à la conduite dans les voitures Tesla qui a en partie contribué à la mort d’un automobiliste entré en collision avec un tracteur, selon le National Transportation Safety Board aux États-Unis. Le système était défectueux parce qu’il a permis au conducteur de lâcher le volant et de ne pas le reprendre quand sa voiture se dirigeait tout droit vers le tracteur.
Tesla a fait la promotion de ce système d’aide à la conduite comme étant un système de conduite sans chauffeur. Or, le fournisseur du système, la compagnie israélienne Mobileye, a accusé Tesla d’être allé trop loin dans son marketing et de prendre des risques avec la sécurité des conducteurs. Les deux entreprises ont rompu leur partenariat à la suite de cette affaire.
Manque de tests indépendants
Aujourd’hui, Tesla commercialise son propre système mais saviez-vous que les mises à jour n’ont pas de tests indépendants à passer? Il n’y a ni mesures de performance, ni balises réglementaires à respecter. C’est comme si on lançait un nouveau vaccin sans lui faire subir des tests pour savoir s’il sera rejeté au même ratio que la version précédente.
En bref, sans balises, les systèmes d’intelligence artificielle présentent toutes sortes de risques : politiques, sécuritaires, atteinte à la vie privée, etc.
C’est pour cette raison qu’un cadre éthique devient essentiel, afin de s’assurer que les machines d’intelligence artificielle vont être adéquates dans le contexte dans lequel elles seront développées, tout en ayant du sens et une utilité pour l’utilisateur. De plus, un cadre éthique va permettre plus de transparence et de surveillance.
Nous n’en sommes qu’aux balbutiements de l’élaboration de ce cadre. Il est important de s’y mettre au plus vite, parce que le risque est le suivant : si les dérapages se multiplient, la population rejettera en bloc le virage de l’IA et les investisseurs ne seront plus au rendez-vous pour financer ses développements. Ce sera alors un recul pour cette technologie qui promet pourtant de nous faire avancer pour le mieux.