Lorsque nous nous projetons dans les cinq à dix prochaines années, lorsque l'IA et les capteurs seront intégrés dans littéralement tout, nous imaginons une ère où vous rentrez chez vous, vous vous installez dans votre salon et vous allumez votre télévision. Pendant que la télévision vous observe, elle communique avec le réfrigérateur, le grille-pain, votre chambre à coucher, votre salle de bain, votre voiture, votre boîte mail. Vous êtes donc assis dans votre espace le plus intime, et vous êtes constamment surveillé, tandis que se déroule autour de vous toute une conversation silencieuse.
Le but de cette conversation entre machines, dans un contexte économique où vous êtes optimisé en tant que consommateur, est de savoir ce que ces appareils doivent vous montrer pour faire de vous un meilleur client. Les décisions sont prises sans que vous ayez votre mot à dire : vous voilà dépouillé de votre autonomie la plus essentielle.
Une question tout à fait fondamentale sur le fait d'être un humain dans les espaces numériques se pose alors. Si dans la nature les choses nous affectent bel et bien, le climat ou les animaux ne cherchent pas activement à nous faire du mal. Mais lorsque vous marchez dans une ville qui réfléchit à la manière de vous optimiser, vous êtes réduit au niveau d’acteur, pris au sein d'un espace qui essaie de dicter vos choix.
Comment pouvez-vous exercer votre libre arbitre lorsque tout ce qui vous entoure, des bâtiments aux objets – littéralement tout – essaie de présélectionner ce que vous voyez afin d'influencer vos désirs ? Une fois que vous êtes prisonnier de cet espace qui vous scrute sans relâche, comment en sortir ? Comment exercer votre autonomie en tant que personne ? C’est impossible. Nous devons commencer à réfléchir à ce que construisons avec l'IA, à ce chemin dans lequel nous nous engageons. Parce qu'une fois que cet espace aura été créé, il nous sera impossible d'en sortir.

C'est pourquoi nous devons réglementer l’intelligence artificielle. Et nous devons le faire sans tarder. Quand on réglemente un secteur, la première étape est toujours de définir un ensemble de préjudices que l'on veut éviter. Nous ne voulons pas que nos avions s’écrasent ou que nos médicaments empoisonnent les gens. Nous pouvons déjà pointer du doigt un certain nombre de problèmes auxquels nous savons que l'IA contribue et que nous voulons éviter à l'avenir : la désinformation, la fraude, le racisme, la discrimination …
Nous ne voulons pas d'une IA qui prenne des décisions avec un biais racial. Nous ne voulons pas d'une IA qui nous escroquerait. La première étape consiste donc à décider de ce que nous ne voulons pas que l’intelligence artificielle fasse. La deuxième consiste à créer un processus de test pour s’assurer que ces comportements non désirés ne se réalisent jamais.
Nous testons les défauts potentiels des avions pour éviter les crashs. De même, si nous ne voulons pas d'un algorithme qui amplifie la désinformation, nous devons trouver un moyen de le tester. Comment est-il conçu ? Quel type de données utilise-t-il ? Comment se comporte-t-il durant un test ? Passer par un processus de vérification est une étape absolument essentielle de la réglementation. Imaginons qu'avant la mise sur le marché d’un algorithme destiné au secteur bancaire, ses concepteurs découvrent que celui-ci a un biais racial qui, dans un échantillon de test, lui fait accorder plus de prêts hypothécaires aux Blancs qu'aux Noirs. Le risque a été évalué, et il est maintenant possible de revenir en arrière et de corriger l'algorithme avant sa mise en circulation.
Il est relativement simple de réglementer l’intelligence artificielle en suivant le même type de processus que celui employé dans d'autres industries. Il s'agit d’un enjeu de limitation des risques, de réduction des préjudices infligés et de garantie de la sécurité avant que l'IA ne soit mise à disposition du public.
Mais ce que nous voyons à la place en ce moment, ce sont des "Big Tech" faire des tests grandeur nature sur la société et en découvrir les effets au fur et à mesure. Facebook constate les problèmes progressivement et s'excuse ensuite. Puis, l’entreprise détermine si la population touchée vaut la peine de corriger le problème. Un génocide en Birmanie – un marché négligeable – ne poussera pas Facebook à agir, même s'il s'agit d'un crime contre l'humanité. La firme américaine a admis ne pas avoir réfléchi à la façon dont son outil de recommandation fonctionnerait auprès d'une population marquée par des antécédents de violence religieuse et ethnique. Mais on est en droit d’exiger d'une entreprise qu'elle fasse cette évaluation avant de sortir une nouvelle application.
Le problème avec la philosophie du "move fast and break things” (“Avancer vite et tout casser”, une devise popularisée par Mark Zuckerberg, PDG de Meta, anciennement Facebook), c'est qu'elle dit aussi implicitement que "j'ai le droit de vous nuire si mon application est assez cool ; j'ai le droit de vous sacrifier pour créer une application."
Nous n'acceptons cela de la part d'aucun autre secteur. Imaginez des entreprises pharmaceutiques dire : "Nous obtiendrons des résultats plus rapides dans le traitement du cancer si vous ne nous réglementez pas, et nous mènerons toutes les expériences que nous voulons". C'est peut-être vrai, mais ce genre d'expérimentations aux conséquences potentiellement désastreuses ne serait voulu de personne. Gardons cela à l'esprit, alors que l'IA prend de l'importance et est intégrée partout.
Le problème est-il la création d’un Terminator, ou la fragmentation de la société ?
L'IA est l'avenir de tous les secteurs : la recherche scientifique, l'aérospatiale, les transports, le divertissement, peut-être même l'éducation. Toutefois, d'énormes problèmes se posent dès lors que nous commençons à intégrer des technologies non sécurisées à tout-va. C'est pourquoi nous avons besoin d’une réglementation.
C'est là qu'intervient la capture réglementaire, c’est-à-dire le moment où une filière essaie de devancer les autres acteurs afin de pouvoir définir ce qui doit être réglementé ou non. Problème : les propositions tendent à ne pas tenir compte des préjudices rencontrés au moment même, mais plutôt des préjudices théoriques qui pourraient survenir dans le futur. Lorsque des personnes disent : "Nous risquons de condamner l'humanité à l'extinction parce que nous pourrions créer le robot Terminator, alors régulez-nous", ce qu’il faut entendre, en réalité, c'est : "Réglementez ce problème qui n'est pas réel pour l'instant. Ne réglementez pas ce problème très concret qui m'empêcherait de sortir des applications qui contiennent des informations racistes, qui pourraient nuire aux personnes vulnérables, qui pourraient encourager les gens à se suicider. Ne réglementez pas les problèmes réels qui m'obligent à changer mon produit."
Quand je vois ces pontes de la tech partir en tournée mondiale pour vendre leur vision grandiose de l'avenir, promettre que l'IA va dominer l'humanité et dire que, pour cette raison, nous devons envisager la réglementation sérieusement, je ne doute pas de leur sincérité. En fait, j'ai l'impression de les entendre dire qu'ils vont contribuer à créer beaucoup de règles pour des choses qu'ils n’auront pas à changer. Prenez les propositions que certains ont publiées il y a quelques semaines [en mai 2023] : ils veulent créer un cadre réglementaire autour d'OpenAI dans lequel les gouvernements donneraient à OpenAI et à quelques autres grandes entreprises technologiques un monopole de fait pour développer des produits, au nom de la sécurité. Un privilège qui pourrait même déboucher sur un cadre réglementaire empêchant d'autres chercheurs d'utiliser l'IA.
Le problème, c'est que nous n'avons pas de débat éclairé sur ce qui devrait être réglementé en premier lieu. Le problème est-il la création d’un Terminator, ou la fragmentation de la société ? Est-ce la désinformation ? L'incitation à la violence ? Le racisme ? Si vous êtes issu d’un contexte social privilégié – disons, un riche homme blanc quelque part dans la baie de San Francisco – vous ne pensez probablement pas à la façon dont la technologie va porter préjudice à une personne en Birmanie. Vous vous demandez simplement si cela vous fait du tort à vous.
Ni le racisme ni la violence politique n’atteignent ces gens ; nous interrogeons les mauvaises personnes sur l’impact de l’intelligence artificielle. Nous devons impliquer davantage de personnes du monde entier, en particulier issues des communautés vulnérables et marginalisées qui seront les premières à subir les effets néfastes de l'IA. Cessons de parler de cette bien vaste idée de préjudices à venir et concentrons-nous sur ceux qui touchent déjà les plus vulnérables dans leur pays, et sur la façon dont nous pouvons protéger ces personnes.
Une grande partie des problèmes que la société connaîtra avec l'IA sont, à mon avis, très semblables à ceux liés au changement climatique. Vous pouvez acheter une voiture électrique ou trier vos déchets, mais le problème est systémique – et les problèmes systémiques exigent des approches systémiques. Je vous suggère donc d'agir et d'exiger des responsables politiques qu'ils interviennent dans ce domaine.
Consacrer du capital politique à cette question est la chose la plus importante que les gens puissent faire – plus importante que de rejoindre Mastodon ou d'effacer leurs cookies. Car ce qui rend la mise en place de l'IA si inégalitaire, c'est qu'elle est conçue par de grandes entreprises américaines qui ne se soucient guère du reste du monde. Les voix des petits pays leur importent moins que les voix des Etats clés de l'échiquier politique américain.
Regardez ce qui a été fait en Europe avec le RGPD, par exemple, et constatez qu’il n’est pas question de s'attaquer au fonctionnement même des innovations visées. Nous créons un ensemble de normes réglant la façon dont les gens consentent ou non à céder leurs données, et au bout du compte, tout le monde accepte de donner ses informations personnelles. Ce n'est pas le bon cadre pour une approche réglementaire : nous traitons cet impératif de régulation comme un service et non pas comme la base sur laquelle devrait être fondée la technologie, et nous réglementons ainsi la sécurité par le biais du consentement.
Imaginez si nous gérions la sécurité des bâtiments de cette manière. Un panneau à l’entrée vous demande d’accepter les conditions d’utilisation, de consentir à ce que le bâtiment soit mal conçu et mal construit, et vous préviens que ce n’est pas bien grave s’il vient à s’écrouler – après tout, vous avez donné votre consentement, non ?
Ce texte est une transcription de l'intervention de Christopher Wylie lors du festival ZEG, à Tbilissi en juin 2023. Il a été enregistré par Gian-Paolo Accardo. La version française a été éditée par Adrian Burtin
Cet article vous intéresse ?
Il est en accès libre grâce au soutien de notre communauté. Publier et traduire nos articles à un coût. Pour continuer à vous informer en toute indépendance, nous avons besoin de votre soutien.
Vous avez eu accès à l’intégralité de cet article.
Vous voulez soutenir notre travail ? Voxeurop dépend des abonnements et des dons de son lectorat.
Découvrez nos offres à partir de 6 € par mois et les avantages réservés à nos abonné(e)s.
Je m’abonne
Ou faites un don pour renforcer notre indépendance.
Je fais un don
Depuis les années 1980 et la financiarisation de l’économie, les acteurs de la finance nous ont appris que toute faille dans la loi cache une opportunité de gain à court terme. Les journalistes récompensés Stefano Valentino et Giorgio Michalopoulos décortiquent pour Voxeurop les dessous de la finance verte.
Voir l’évènement