L’intelligence artificielle (IA) se transmet de bouche à oreille et bénéficie d’un battage médiatique, suscitant autant d’effroi que de fascination. Si les uns parlent d’une révolution industrielle accompagnée de nouvelles opportunités et dont l’impact social rendra l’homme plus intelligent, d’autres voient dans l’IA une menace pour l’humanité.

Certainement, le plus grand danger de l’IA apparaît lorsqu’on en tire des conclusions prématurées, pensant avoir compris la chose1. En ce sens, bien qu’elle arrive avec du retard par rapport aux investissements américains et développements chinois, la Commission européenne a publié une communication sur l’IA2 faisant preuve d’une prise de conscience de l’importance du sujet.

Le texte ne vise pas à réglementer l’IA mais plutôt s’agit-il d’encourager davantage la recherche, l’utilisation de l’IA et la digitalisation de l’industrie. Dans ce contexte, la création d’alliances et de pôles d’innovation numérique soutiendra notamment les PME. La Commission présente une approche européenne intégrée, multidisciplinaire et multipartenaire qui se concentre sur trois volets : s’adapter à la transformation des emplois, créer un cadre éthique et juridique et augmenter les investissements publics et privés. En dépit des nombreuses critiques, l’Europe se trouve donc au premier plan des préparations à l’impact de l’IA et peut jouer un rôle considérable pour le développement d’une IA de haute qualité en termes de sécurité et de respect de la vie privée. À noter aussi que l’Europe dispose de leaders de la robotique industrielle, professionnelle et de service3, surtout dans les domaines du transport et de la santé. Ces entreprises doivent maintenant intégrer l’IA pour rester compétitives.

Comme le répète souvent le Vice-président la Commission européenne chargé du Marché numérique unique, Andrus Ansip, il faut d’abord « démystifier » l’IA et renforcer la confiance des consommateurs. En effet, chacun d’entre nous tend à imaginer l’IA avec des notions grossièrement formées. Ces idées risquent alors de ne présenter qu’une justesse pratique approximative, inadéquate et dangereuse lorsqu’elles freinent l’adoption des nouvelles technologies clés4. Partant, nos sociétés risquent de ne pas s’adapter, en temps utile, aux changements inévitables. Les conséquences peuvent être fatales.

Permettre à l’industrie de porter les fruits de l’IA c’est donc aussi contribuer à la compréhension de l’IA, par les faits, permettant à la société de se défaire des préjugés5.

Précisément, l’IA telle qu’elle existe aujourd’hui est dite « faible » et se limite strictement aux machines ayant une capacité à résoudre un problème bien spécifique comme par exemple la reconnaissance vocale type Siri. Si nos industries peuvent potentiellement développer ce type d’IA jusqu’à créer des machines encore plus performantes et aptes à résoudre plusieurs types de problèmes, elles resteront dépendantes de l’intervention humaine. En effet, cela s’inscrit dans l’insurmontable différence entre les êtres qui « existent par nature » et ceux qui existent « par d’autres causes ». Dit autrement, le naturel aura toujours « en soi-même un principe de mouvement et de fixité quant au lieu, à l’accroissement, au décroissement ou à l’altération » alors que l’artificiel « ne possède aucune tendance naturelle au changement »6. Enfin, cet élément est essentiel à l’acceptation de l’IA « forte » et l’hypothèse selon laquelle il serait un jour possible de doter les machines d’une conscience de soi.

Angela Lo Mauro
Conseillère affaires européennes auprès de la FEDIL