EXPERT INVITÉ. Avant d’aborder les détails réglementaires arides, prenons un moment pour explorer les technologies qui offrent la capacité de traitement nécessaire à l’IA et leurs différences avec la capacité de traitement des ordinateurs classiques. Pour comprendre pleinement l’importance croissante des entreprises comme NVIDIA et QScale, ici au Québec, il est essentiel de saisir la différence fondamentale entre un CPU (unité centrale de traitement) et un GPU (unité de traitement graphique). Vous en entendez souvent parle, mais de quoi s’agit-il exactement?
La nature généraliste du CPU
Prenons un instant pour admirer le prodige qu’est l’ordinateur moderne. Au cœur de chaque machine se trouve un morceau de silicium, sur lequel sont gravés des milliards de circuits nanométriques. Le régime de fonctionnement électrique de ces circuits se situe à la frontière entre la physique classique et quantique. Grâce à eux, l’ordinateur peut exécuter des séries d’instructions arbitraires, que l’on nomme programmes, à raison de plusieurs milliards d’opérations par seconde. Ce miracle d’ingénierie est ce que l’on appelle un CPU.
Malgré la complexité de sa conception, le fonctionnement d’un CPU repose sur des principes relativement simples. Le CPU exécute une séquence d’instructions définissant les opérations à réaliser sur les données à traiter. Par exemple, pour une série de multiplications, le CPU prend chaque opération individuellement et les exécute de manière séquentielle.
Cette architecture fait du CPU un outil généraliste. La plupart des opérations informatiques imaginables peuvent être exécutées par un CPU. Quel est donc le rôle du GPU? N’avons-nous pas, avec nos CPU modernes, suffisamment de puissance pour effectuer toutes les additions et multiplications nécessaires à nos fins? Il s’avère que non!
GPU le spécialiste
C’est en développant des jeux vidéo que nous avons pris conscience des limitations inhérentes à l’architecture du CPU. Lorsqu’un ordinateur simule une scène en 3D, il doit réaliser une grande quantité de calculs de géométrie vectorielle. Ces transformations géométriques se traduisent par des multiplications matricielles. Pour exécuter cette simulation en temps réel, comme c’est nécessaire pour un jeu vidéo, le CPU doit effectuer toutes ces multiplications matricielles pour générer la prochaine image de la scène en quelques millisecondes, tout en continuant à gérer les autres fonctions de l’ordinateur.
Heureusement pour les admirateurs de jeu vidéo, qui aiment les graphiques fluides, ces algorithmes de géométrie vectorielle possèdent une caractéristique spéciale permettant d’importantes optimisations : ils sont parallélisables. Autrement dit, l’opération 2 ne dépend pas du résultat de l’opération 1. En théorie, on pourrait exécuter des dizaines de milliers d’opérations en parallèle au lieu de les envoyer une par une au CPU!
Pour profiter de cette opportunité d’optimisation, les premiers GPU ont été créés. Le terme «GPU» a été utilisé pour la première fois en 1999 par NVIDIA avec la carte graphique GeForce 256. Contrairement au CPU qui exécute des instructions de manière séquentielle, le GPU exécute une seule instruction sur des milliers de cœurs simultanément, traitant ainsi plusieurs lots de données à la fois et atteignant des niveaux élevés de parallélisation.
Avec le temps, de nombreux autres secteurs ont exploité cette capacité à réaliser un grand nombre de calculs en parallèle. Par exemple, les réseaux utilisant la technologie de la chaîne de bloc, au cœur de l’explosion des cryptomonnaies.
Ensuite, l’essor de l’intelligence artificielle générative a suivi. Les réseaux neuronaux, essentiels à cette innovation, bénéficient également de la parallélisation. Leurs processus d’entraînement et d’inférence se basent sur des multiplications matricielles, similaires à celles utilisées pour le rendu graphique des jeux vidéo.
Ce développement a été particulièrement favorable à Nvidia, initialement axée sur le marché des équipements de gaming. Aujourd’hui, Nvidia est devenu le principal fournisseur de puissance de calcul parallèle, expliquant pourquoi elle est actuellement l’une des entreprises les plus valorisées au monde.
On commence également à voir apparaître d’autres termes comme TPU (Tensor Processing Unit) ou NPU (Neural Processing Unit). Ce sont d’autres implémentations de la même idée : un processeur spécialisé dans les calculs parallèles! Maintenant, est-ce que les règlements encadrant l’IA vont ralentir les investissements et, par ricochet, l’innovation?
L’Union Européenne se dote d’une réglementation sévère
La loi sur l’IA de l’Union Européenne (EU Artificial Intelligence Act) sera vraisemblablement approuvée et signée par les autorités compétentes en 2024. Il s’agit d’un cadre réglementaire régissant l’utilisation de l’IA par les organisations qui vendent et opèrent dans l’UE, et il affectera toutes les entreprises, indépendamment de leur nationalité ou de leur taille.
Cette loi établit des réglementations pour quatre niveaux de risque associés à la vente et à l’utilisation de l’IA dans les produits logiciels.
Respecter ces nouvelles réglementations pourrait entraîner des coûts importants, voire prohibitifs, pour les PDG de compagnies de technologies qui développent des produits basés sur l’IA considéré «à haut risque» pour le marché européen.
Par ailleurs, les PDG de technologies ayant développé ou développant des produits considérés comme présentant des «risques inacceptables» seront interdits de vendre leurs produits d’IA dans l’UE dans les six mois suivants l’entrée en vigueur officielle des réglementations — prévue aux alentours d’octobre 2024.
Catégorie 1 : «Risque inacceptable»
Les organisations vendant des produits jugés comme présentant un «risque inacceptable» peuvent s’attendre à ce que ces produits soient interdits sur les marchés de l’UE dans les six prochains mois. Ces produits basés sur l’IA incluent :
· Les systèmes capables de fournir une identification biométrique en temps réel.
· Les outils qui collectent des images faciales sur Internet ou à partir de systèmes de surveillance vidéo publics pour créer des bases de données de reconnaissance faciale.
· Les outils qui tirent des conclusions sur les émotions des personnes sur le lieu de travail, par exemple, les logiciels capables de capturer et d’interpréter les expressions faciales des gens.
Catégorie 2 : «Risque élevé»
Les organisations vendant des produits dans la catégorie «risque élevé» peuvent s’attendre à des exigences strictes et coûteuses. Ces produits sont considérés comme ayant le potentiel de nuire à la santé, à la sécurité, aux droits fondamentaux, à l’environnement et à la démocratie. Ils incluent des produits dans les domaines de la biométrie, les infrastructures critiques, l’éducation, l’emploi, et les forces de l’ordre.
Les entreprises vendant ou utilisant des produits basés sur l’IA «à haut risque» devront ajuster leurs systèmes pour répondre aux exigences prescrites pour leurs opérations dans l’UE. La responsabilité de démontrer la conformité incombera aux producteurs de logiciels. Cette démonstration sera faite par des évaluations techniques et juridiques qui ne seront pas bon marché.
Les producteurs de technologies devront aussi développer des mesures de gestion des risques pouvant être coûteuses. Finalement, ces règlements vont peut-être concentrer l’offre de solutions innovantes en IA vers les États-Unis et le Canada, où les encadrements sont moins prescriptifs, et entraîner une prudence accrue dans les investissements en IA, ce qui pourrait potentiellement freiner l’innovation.
Catégorie 3 : «Risque limité»
Les organisations vendant des produits dans la catégorie «risque limité» — qui inclut des logiciels d’IA tels que les chatbots et les générateurs de deepfake — auront des obligations moins strictes que celles ayant des produits dans les catégories précédentes. Les fournisseurs de technologie ayant des produits appartenant à cette catégorie devront informer les utilisateurs qu’ils interagissent avec un système d’IA et s’assurer que tous les enregistrements audio, vidéo et photos générés par l’IA sont étiquetés comme tels.
Catégorie 4 : «Risque minimal»
Les organisations vendant des produits d’IA dans la catégorie «risque minimal», tels que les filtres antispam et les systèmes de recommandation, n’auront aucune obligation en vertu de la loi sur l’IA.
En conclusion, je crois que nous sommes dans un point d’inflexion ou la technologie et les autorités réglementaires vont se frotter un peu les oreilles. Il sera intéressant de voir comment les marchés vont réagir.
*Cet article est rédigé en collaboration avec Nicolas Berthiaume, architecte logiciel chez Mondata.