La révolution numérique connaît une nouvelle accélération. L'intelligence artificielle est désormais à portée de doigt de chaque être humain. Des plateformes aisément accessibles permettent de créer des textes ou des images entièrement fabriquées sur la base d'immenses stocks de données. ChatGPT, pour ne citer qu'elle, peut par exemple vous permettre d'écrire un prétendu discours du président Macron (ou pourquoi pas d'Alain Berset), à moins que vous ne préfériez concevoir un faux entretien avec Michael Schumacher, enfermé dans un coma profond depuis un tragique accident. Ces exemples ne sont malheureusement pas des inventions de ma part. Ils ont fait l'objet de récentes actualités. Alors faut-il laisser faire, laisser aller? Réguler ces nouveaux outils? Les interdire? That is the question.
Comme toute invention, l'intelligence artificielle n'est pas en soi un mauvais génie. Elle peut avoir demain, elle a déjà des usages positifs dans de nombreux domaines. Mais elle comporte aussi des risques importants et potentiellement graves de conséquences.
Premier risque. Même quand l'intelligence artificielle est utilisée dans un objectif scientifique, par exemple dans le but d'améliorer la détection d'une maladie, elle repose sur des algorithmes, eux-mêmes alimentés par une accumulation de données. Mais cela n'implique pas que les données soient exactes et que l'information qui en résulte soit correcte. Il est donc important de savoir comment ces données ont été recueillies et agrégées et par qui, comme on le fait pour le contrôle de tous les travaux scientifiques. Les méthodes utilisées et les résultats obtenus doivent être validés. En ce qui concerne l'intelligence artificielle de supermarché, c'est le brouillard le plus total.
Deuxième risque. ChatGPT et les autres plateformes de ce genre sont autant de fabriques potentielles de faux, de tricheries, de fakenews qui sont de véritables fléaux et qui menacent clairement nos démocraties. Car l'information, c'est du pouvoir, et la fausse nouvelle circule de la même manière, parfois même plus facilement, que la vraie. Elle peut même permettre, à force de tweets sur les réseaux sociaux, d'accéder au pouvoir d'une grande puissance démocratique, comme l'a fait Donald Trump. Ou d'intervenir de l'étranger, en tenue camouflée, dans le champ d'une élection, comme la Russie s'y est employée aux Etats-Unis, en France, en Grande-Bretagne…
Troisième risque. Il s'agit du risque économique. Jusqu'à présent, le numérique détruisait des emplois liés à des actes matériels répétitifs (chaînes de production, logistique, caisses de magasins, etc.). Cette évolution a eu des conséquences humaines et sociales, souvent douloureuses pour les personnes concernées. Cette fois, c'est l'ensemble des actes de réflexion et de création qui est en jeu. Le développement de l'intelligence artificielle crée bien sûr des emplois et va en faire naître de nouveaux. Mais elle va aussi en détruire, y compris dans des domaines où on ne l'attend peut-être pas. Mieux vaudrait, là aussi, réfléchir – avec l'aide de l'intelligence artificielle? – au coût social et humain qui en résultera.
Pour toutes ces raisons, il me paraît évident que «laisser faire, laisser aller» n'est pas la solution. Le savoir lui-même doit être sagace. La science n'avance pas n'importe comment. Prenez l'exemple d'un nouveau médicament. Il ne peut pas être mis sur le marché dès qu'on pense avoir trouvé une nouvelle molécule, un nouveau principe actif. Il est soumis à autorisation et cette autorisation n'intervient qu'à la suite de nombreux essais cliniques qui doivent démontrer: 1 que le médicament est bien efficace contre la maladie qu'il prétend combattre. 2. qu'il ne provoque pas des effets secondaires rédhibitoires. Cela n'empêche pas la médecine de progresser et de nous assurer depuis des décennies une augmentation de la durée de vie en bonne santé.
Si l'intelligence artificielle doit être encadrée, il est évident que l'efficacité de sa régulation ne peut que relever d'un accord international, au minimum de niveau européen. Mais il faudra du temps avant qu'il ne soit effectivement mis en œuvre. Pour éviter les principaux risques, il faudra en effet pouvoir vérifier, auprès des fournisseurs de plateformes, que les algorithmes utilisés sont garantis sans biais. Dans l'intervalle, la question se pose donc d'un moratoire, d'une interdiction définitive ou provisoire de certaines applications.
C'est d'ailleurs la ligne de l'Artificial Intelligence Act, qui vise à encadrer, au niveau européen, l'usage et la commercialisation des applications de l'IA. Certaines d'entre elles seraient carrément interdites, comme la reconnaissance faciale de masse, les systèmes de notation sociale des individus, ou encore les Chatbots qui incitent à faire n'importe quoi.
Les applications présentant de hauts risques seraient interdites dans l'attente d'une éventuelle autorisation, dans les domaines par exemple de la conduite autonome, de la chirurgie assistée par robot ou de l'éducation. ChatGPT entrerait dans cette catégorie. Selon une étude, 30 à 50% des applications actuelles de l'intelligence artificielle ne seraient pas conformes à ce projet de loi.
Atteinte au libéralisme? Refus du progrès? Pas du tout. Les inventions ont toujours été accompagnées par des réflexions éthiques, encadrées par des dispositions légales pour en limiter l'usage et les nuisances. L'intelligence artificielle n'a pas à être au-dessus de l'homme. Surtout quand son degré d'artifice est inconnu.
Olivier Feller
Conseiller national PLR Vaud
Article publié dans le Journal des arts et métiers du mois de mai 2023