Le 1er aout a marqué une étape historique dans le domaine de l’intelligence artificielle (IA) avec l’entrée en vigueur de l’AI Act, un cadre réglementaire sans précédent au niveau mondial. Avec cette nouvelle législation, qui ne sera toutefois d’application qu’à partir de l’année prochaine, l’Union européenne devient la région du monde la plus sévère en ce qui concerne l’encadrement du développement de l’intelligence artificielle.

D’importantes mesures ont été mises en place, incluant des obligations strictes en matière de transparence dans l’utilisation de l’intelligence artificielle. Désormais, les consommateurs doivent être systématiquement informés lorsqu’ils interagissent avec des technologies basées sur l’IA. Cela inclut notamment des mécanismes de signalement clair pour des applications comme les ‘deepfakes’ afin que ces systèmes indiquent explicitement que les images ou vidéos ont été générées artificiellement. Cette démarche vise à renforcer la confiance et à limiter les risques de manipulation ou de tromperie.

L’Europe a opté pour une classification des intelligences artificielles en fonction de leur niveau de risque, allant de minimal à inacceptable, chaque catégorie étant soumise à une régulation spécifique. Procéder de cette façon et ne pas avoir tenté de donner une seule définition de l’intelligence artificielle est une bonne chose. De nombreuses applications d’IA importantes qui contribuent à améliorer l’efficacité des processus sont classées dans des catégories de risque inférieures par l’AI Act et sont soumises à des réglementations moins strictes. Cela permet aux entreprises d’utiliser l’IA de manière sûre et efficace sans avoir à supporter des coûts de conformité élevés.

Sans surprise, avec un tel nom, les technologies classées « inacceptables » ne seront plus les bienvenues dans l’Union européenne. Parmi ces systèmes figurent ceux capables d’influencer les comportements cognitifs ou émotionnels des individus, en particulier des groupes vulnérables, comme certains jouets à commande vocale. Des pratiques telles que la notation sociale, la catégorisation des personnes ainsi que l’identification biométrique à distance et en temps réel, comme la reconnaissance faciale, sont également concernées. Concrètement, des entreprises proposant des systèmes de reconnaissance faciale, capables de reconnaître n’importe quel individu, par exemple sur une caméra de surveillance, ne devraient ainsi plus pouvoir proposer ses services dans l’UE.

La Commission européenne a également introduit une catégorie spécifique pour les systèmes d’IA générative, tels que ChatGPT. En raison de l’ampleur de leur utilisation, il a été particulièrement difficile de définir un cadre réglementaire adapté. La Commission propose, en résumé, un statut à part avec plus de liberté que les IA considérées comme à haut risque. Toutefois, ces systèmes restent soumis à des contrôles, notamment par le biais d’évaluations régulières et la possibilité pour les citoyens de déposer une plainte en cas de dysfonctionnement.

Ces IA génératives, bien qu’assouplies dans leur cadre d’utilisation, ne sont pas exemptes de régulation. Les modèles d’IA à usage général ayant un impact significatif, comme GPT-4,
devront faire l’objet d’analyses approfondies et signaler tout incident grave à la Commission européenne. Cependant, la notion de « risque systémique », sur laquelle repose une partie de cette régulation, n’est pas encore clairement définie, laissant place à des questions sur l’application concrète de ces mesures.

Les nouvelles mesures de l’AI Act ont déjà suscité des réactions négatives chez plusieurs grands acteurs du secteur, tels que Meta et Apple, qui ont annoncé des retards dans l’intégration de certaines fonctionnalités d’IA en raison des exigences réglementaires imposées. Ces entreprises voient dans cette législation une contrainte supplémentaire, potentiellement coûteuse et complexe à gérer.

Cette régulation stricte risque également de pénaliser les entreprises européennes. Dans un contexte où l’innovation technologique est déjà perçue comme difficile, l’ajout de nouvelles contraintes pourrait nuire à leur compétitivité face à leurs concurrents américains ou asiatiques. Cependant, la stratégie de la Commission est claire : instaurer les normes les plus rigoureuses et espérer que d’autres régions du monde adoptent des législations similaires, faisant de l’UE une référence mondiale en matière de régulation de l’IA. C’est ambitieux comme manière de faire, mais c’est aussi partiellement risqué.

Georges Santer
Responsable digitalisation et innovation auprès de la FEDIL