La révolution numérique connaît une nouvelle accélération. L’intelligence artificielle (IA) est présentée comme la nouvelle rupture technologique qui devrait changer le travail, l’économie et la société. Comme toute invention, l’IA n’est pas en soi un mauvais génie. Elle peut avoir des usages positifs dans plusieurs domaines, en particulier dans les secteurs scientifiques et techniques. Mais elle comporte aussi des risques potentiellement graves de conséquences. Alors faut-il laisser faire, laisser aller? That is the question.
C’est le sens de plusieurs de mes interventions au Conseil national, en particulier d’une interpellation déposée le 2 mai 2023. Depuis lors, j’ai régulièrement renouvelé mes interrogations. Le secrétaire général de l’ONU, la présidente de la Commission européenne et divers scientifiques de renom ayant déclaré que la gestion des risques potentiellement catastrophiques de l’IA (accidents dans des infrastructures critiques, déstabilisation politique) devait être une priorité mondiale, j’ai demandé au Conseil fédéral, le 19 septembre 2023, s’il estimait avoir pris les mesures suffisantes pour y parer. La réponse est malheureusement négative à ce jour. Le premier rapport – un rapport – sur les enjeux de l’IA ne devrait être publié que d’ici la fin de cette année…
Quels sont les risques?
Deuxième risque. Les applications d’IA peuvent constituer un risque de sécurité en tant que telles, sans aucune intervention humaine, par exemple si le système de conduite autonome d’un véhicule ou de gestion d’une infrastructure critique se met à dysfonctionner. J’ai attiré l’attention du Conseil fédéral sur ce type de risque en lui demandant quelles étaient les mesures prises dans une interpellation déposée le 13 juin 2024.
Troisième risque. Le rapport semestriel de l’Office fédéral de la cybersécurité du 6 mai 2024 relève que le nombre de tentatives d’escroquerie impliquant l’IA est en hausse. Ces attaques s’appuient notamment sur des images générées par IA ou prennent la forme de fraudes à l’investissement empruntant le nom de personnalités connues.
Quatrième risque. ChatGPT et les autres plateformes de ce genre sont autant de fabriques potentielles de faux, de tricheries, de fakenews qui sont de véritables fléaux et qui menacent clairement nos démocraties. Car l’information, c’est du pouvoir, et la fausse nouvelle circule de la même manière, parfois même plus facilement, que la vraie. Elle peut même permettre d’intervenir de l’étranger, en tenue camouflée, comme la Russie s’y emploie depuis des années…
Pour toutes ces raisons, il me paraît évident que «laisser faire, laisser aller» n’est pas la solution et que l’IA doit être encadrée. C’est d’ailleurs la ligne de la Convention sur l’intelligence artificielle adoptée par le Conseil des ministres du Conseil de l’Europe le 17 mai 2024. Cette convention vise à garantir le respect des droits humains, de la démocratie et de l’État de droit en matière d’IA. La Suisse devrait la signer en septembre prochain.
Mais son application n’interviendra qu’à l’issue d’un long processus. Le Conseil fédéral doit d’abord préparer un message en vue de la ratification de la Convention par le Parlement. On en a pour un an au minimum. Puis la législation fédérale devra être adaptée et cela prendra plusieurs années (élaboration d’un avant-projet, mise en consultation, élaboration d’un message du Conseil fédéral, travaux parlementaires). Tout sera donc très lent alors que la technologie avance à toute vitesse.
Atteinte au libéralisme? Refus du progrès? Pas du tout. Les inventions ont toujours été accompagnées par des réflexions éthiques et juridiques pour en limiter l’usage et les nuisances. Il n’y a aucune raison pour que l’IA échappe à ce type de régulation. Le libéralisme lui-même est soumis à des valeurs humanistes comme à des valeurs de vie en société qui lui sont supérieures.
Olivier Feller
Conseiller national PLR Vaud
Article publié dans le Bulletin du Cercle Démocratique Lausanne en août 2024