“Les IA vont dominer et diriger le monde”.
A chaque fois que je tente de lancer une discussion sur le thème des intelligences artificielles, on finit par en arriver là.
Après avoir échangé quelques phrases, mon interlocuteur·ice me dit, en gros, qu’iel craint de perdre son autonomie au profit des IA.
Les vilaines IA vont tout décider à notre place – un peu comme dans le film Matrix, où les machines ont pris le pouvoir et se nourrissent des êtres humains pour s’alimenter en énergie.
A ce moment de la conversation, j’essaie de garder un visage avenant.
Mais intérieurement, ça donne ça :
RAAAAAAAAAAHHHHHH.
J’avoue que cette réaction m’agace.
Pas parce que je suis une partisane béate des IA et que je ne tolère aucune critique à leur sujet.
Au contraire : je crois que beaucoup de difficultés nous attendent, et qu’on a intérêt de s’y préparer.
(Je vous en dis plus là-dessus dans quelques lignes).
La raison pour laquelle ce cliché “les IA vont tout maîtriser” me court sur le haricot, c’est parce que j’y vois une façon d’éviter de se demander quel est notre rôle, à nous, les êtres humains, dans le développement des IA.
En disant qu’on a peur que les IA “prennent le contrôle”, on en fait un problème qui nous est extérieur.
On prétend que les IA sont dotées d’une intentionnalité qui nous dépasse.
Dans cette vision des choses, les intelligences artificielles deviennent responsables des difficultés qu’elles causent. Trop intelligentes, trop retorses, trop assoiffées de pouvoir, trop je-sais-pas-quoi.
Alors que le vrai risque…. C’est nous. Les humains.
Ce qui rend si dangereuses les IA, c’est ce triptyque banal :
leur conception par des humain·es excessivement confiant·es ;
leur utilisation par des humain·es mal intentionné·es ;
la passivité d’une grande partie des humain·es bien intentionné·es.
Et c’est particulièrement manifeste dans 7 domaines.
Mais avant de vous les présenter, j’aimerais qu’on se mette rapidement d’accord sur ce qu’est l’IA : pour qu’on discute intelligemment des risques qu’elle pose, il faut déjà commencer par comprendre clairement ce dont on parle.
L’IA générative, c’est quoi ?
(Ça va être très court : je donnerai plus de ressources et de détails dans le post “recommandations” qui clora cette série sur l’IA.)
Les intelligences artificielles génératives forment un sous-ensemble d’un champ plus large, celui de l’intelligence artificielle (tout court).
L’histoire de l’intelligence artificielle remonte loiiiiin et accélère grandement avec la naissance de l’informatique, au XXème siècle.
Toute l’informatique, en un sens, c’est de l’intelligence artificielle : on crée une machine (artificielle au sens de “pas organique”) qui peut faire des calculs (une forme d’intelligence).
Vous transportez donc dans votre poche une intelligence artificielle : votre smartphone.
Quand vous utilisez une application pour savoir quel trajet vous devez emprunter pour vous rendre à votre rendez-vous, il y a un algorithme qui calcule l'itinéraire pour vous.
Et qui le fait plus vite et mieux que vous n’en seriez capable.
(Enfin, peut-être pas mieux que vous, mais mieux que moi c’est sûr.
Je sais pas lire une carte.
Ahem.)
Le fait que des ordinateurs aient des puissances de calcul complètement hors de portée des êtres humains, ça, c’est old news : on le sait depuis longtemps.
Ce qui est plus récent, et ce qui m’intéresse dans cette série d’articles, ce sont les IA génératives.
Leur spécificité : elles permettent la production de textes, d’images, de sons ou de vidéos entièrement inédites.
Ces IA génératives ne sont pas nouvelles, mais elles ont été rendues disponibles à un large public tout récemment.
Jusqu’à 2022, à moins d’être chercheur·euse ou spécialiste du sujet, vous aviez peu de chance d’en avoir utilisé une.
Aujourd’hui, on est très nombreux·ses à avoir demandé à chatGPT, un “large language model”, de nous aider à rédiger un mail.
Et ces nouvelles IA posent de nouveaux problèmes.
Voici les 7 risques les plus pressants selon moi :
1. La désinformation et les “deepfakes”
Les IA génératives peuvent créer de toutes pièces des textes, des images et des vidéos très convaincants.
Vous avez probablement déjà vu une de ces vidéos appelées “deepfakes” : une personne connue est montrée en train de dire ou faire quelque chose qu’elle n’a jamais dit ou fait.
Parfois, elles jouent sur le registre de l’absurde, comme quand Emmanuel Macron et Nicolas Sarkozy se retrouvent catapultés dans un clip d’Angèle.
Le deepfake devient dangereux quand il cherche à être réaliste.
Car il brouille les frontières entre le vrai et le faux.
Ce qui existe et ce qui n’existe pas.
Par exemple, quand une vidéo montre un·e responsable politique en train de tenir des propos qui vont créer une polémique lui étant défavorable, à quelques jours d’une élection importante.
Ça peut faire basculer les résultats.
Pour un truc que la personne n’a jamais dit.
2. Une aggravation des cyberviolences vécues par les femmes
Beaucoup des deepfakes véhiculent du contenu pornographique.
Attention : je n’ai rien contre la pornographie en soi, ni le travail du sexe.
Mais je trouve grave et inquiétant que ces deepfakes pornos circulent sans aucun consentement de la part des personnes qu’elles mettent en scène, qui ont très peu de moyens d’agir contre la diffusion de ces vidéos.
Et, dans un monde où la sexualité des femmes est méprisée, le fait est que ces vidéos sont souvent destinées à humilier les femmes dont les visages et les corps sont utilisés.
L’IA peut donc considérablement nourrir la violence en ligne qui s’exerce sur les femmes dont le seul tort est d'exister dans l’espace public.
Yay.
3. L’extension du régime de surveillance
On parle déjà du capitalisme de surveillance pour évoquer la façon dont les “géants du numérique” (Google, Meta et consorts) nous pistent en permanence, avec un degré de précision et une capacité prédictive dont n’aurait même pas osé rêver la Stasi.
L’IA permet d’aller encore plus loin.
De mettre en place une surveillance encore plus étendue, encore plus intrusive, par exemple :
en identifiant facilement un visage dans une foule,
en “prédisant” qui sont les personnes les plus dangereuses dans un groupe,
ou encore en reconnaissant avec finesse les émotions sur le visage de quelqu’un.
Tout récemment, Microsoft a proposé d’utiliser l'intelligence artificielle pour “aider” ses utilisateurs, avec un logiciel sobrement intitulé “Recall” (“Rappel” en français).
Le principe ? On enregistre tout ce que vous faites sur votre ordinateur en continu, et une intelligence artificielle s’en sert pour prédire ce dont vous avez besoin.
Je répète : on enregistre tout ce que vous faites. En continu.
Big Brother, c’est de moins en moins une métaphore.
4. La reproduction des inégalités et des discriminations
Les IA génératives nécessitent un entraînement intensif.
Schématiquement, on les “nourrit” avec d’immenses masses de données, qu’elles apprennent à imiter.
Ces données sont issues de notre monde “réel”. Elles traduisent donc tout un tas de biais oppressifs.
Ce qui veut dire qu’en l’absence de correction apportée au modèle, les biais présents dans les données d’entraînement des IA vont être reproduits par l’IA une fois qu’elle génère du contenu.
Un exemple concret pour mieux saisir à quel point c’est merdique :
Imaginez une IA utilisée pour recruter des employé·es. Il y a de fortes chances qu’elle préfère embaucher des hommes blancs, parce que ses données d’entraînement montrent que ces profils étaient considérés comme meilleurs par le passé.
On peut se dire qu’il suffit de corriger le modèle (en lui disant explicitement de ne pas être raciste, par exemple).
Mais qui décide des corrections à apporter ?
A l’heure actuelle, ce sont les entreprises gérant ces modèles qui choisissent leur orientation politique, de façon totalement opaque.
5. Le coût environnemental
Les IA génératives sont complexes et très gourmandes en énergie.
On le sait toustes : l’énergie n’est jamais gratuite.
Vu la vitesse à laquelle se réchauffe la planète et la lenteur des accords internationaux sur le sujet, on doit aussi penser à l’impact environnemental des IA génératives.
Je ne peux pas vous donner de chiffres très précis parce que, précisément, on manque de données fiables (les entreprises qui bossent sur ces modèles n’ont pas trop intérêt à les publier).
Mais c’est un gros souci, qui ne va pas s’arranger tout seul.
6. La raréfaction du travail artistique humain rémunéré et respecté
Les artistes dépendent déjà de plus en plus de grosses plateformes pour avoir accès à un public : Spotify pour la musique, par exemple, ou bien Netflix pour les films/séries, Instagram pour tout un tas de petit·es créateurices…
L’objectif de ces plateformes n’est pas de contribuer à l’Art, ni d’aider les artistes à créer et à vivre de leurs activités : c’est de faire du profit.
C’est pour ça qu’elles saignent à mort les personnes qui produisent les œuvres dont elles ont besoin pour exister, au lieu de les rémunérer à peu près correctement (jetez un œil au paiement versé par Spotify aux musicien·nes, si vous avez envie de vous mettre en rogne pour la journée).
Or, pour faire du profit, l’idéal, c’est carrément de se débarrasser des artistes.
Les intelligences artificielles permettent d’imaginer un monde dans lequel on “consomme” du “contenu” largement produit par des intelligences artificielles.
Au détriment des artistes humain·es.
Et si vous me dites “mais nooooon, jamais ça n’arrivera, jamais les IA ne seront au niveau”, je vous réponds — si si, d’autant plus qu’elles pourront produire des œuvres entièrement personnalisées aux désirs et aux goûts de leur audience.
Le tout à bas coût.
Ce qui m’emmène au risque suivant :
7. L’aggravation de la polarisation et des bulles de filtre
Les intelligences artificielles génératives permettent de produire des contenus personnalisés en fonction de la personne qui interagit avec.
On voit bien l’intérêt d’un point de vue capitaliste : plus ce qu’on nous met sous les yeux est adapté à notre personnalité, nos goûts et nos valeurs, plus ça va être facile d’accrocher notre attention et de la retenir, puis de nous vendre toutes sortes de trucs dont on n’a pas besoin.
C’est désastreux.
Surtout quand on combine la personnalisation avec la désinformation dont je parlais plus haut : les opérations de propagande et de manipulation vont être de plus en plus individualisées et venir nous chercher à des endroits où nous sommes particulièrement fragiles.
On risque de vivre encore davantage dans un monde fait “sur mesure”, au détriment d’une réalité partagée.
Alors on fait quoi, camarade ?
Toutes ces difficultés viennent du fait que les IA génératives existent :
dans un monde capitaliste où l’objectif numéro 1 c’est de faire du profit, pas de garantir une vie digne et libre aux êtres vivants ;
de façon presque totalement indépendante des institutions démocratiques et des citoyen·nes.
(D’ailleurs, je serais vraiment curieuse de savoir combien de député·es et de sénateur·ices français·es s’intéressent à ce sujet, comprennent – même de façon minimale – le fonctionnement d’une IA générative, et ont réfléchi à ses risques au-delà du fameux scénario-catastrophe-Matrix.)
L’Union européenne a validé un projet de régulation des IA qui devrait entrer en vigueur dans les prochaines semaines.
Si vous voulez en savoir plus, vous pouvez aller lire ceci pour le côté discours officiel et cela pour une critique engagée et détaillée (les deux sont en anglais).
C’est une première et beaucoup mieux que rien.
Mais c’est très insuffisant :
déjà parce que, sur le fond, l’objectif reste de ne pas trop entraver le capitalisme ni la surveillance généralisée,
et aussi parce qu’à mon sens il manque un énorme truc : la participation des citoyen·nes. Des gens comme vous et moi.
La législation de l’Union européenne fait dialoguer entreprises et institutions politiques, en laissant aux citoyen·nes le seul rôle d’utilisateurices passives de ces services.
Il ne faut surtout pas laisser le sujet aux expert·es et aux responsables politiques de haut niveau.
L’histoire montre qu’iels ne sont pas spécialement fiables quand beaucoup d’argent et de pouvoir sont en jeu.
Et c’est pour ça qu’on va continuer de parler de tout ça dans les prochaines semaines.
Mardi prochain, on va passer à une approche plus concrète : on verra comment vous pouvez vous servir efficacement d’un modèle comme chatGPT tout en vous protégeant un maximum.
Ce post fait partie d’une série sur l’intelligence artificielle, qui comprend, outre cet article :
pourquoi il faut s’intéresser à l’IA, même quand on n’est spécialement geek de base ;
la semaine prochaine, les cas d’usage les plus fréquents et les astuces à connaitre pour obtenir des réponses de bonne qualité sans compromettre des données confidentielles. Pas besoin d’avoir un master en informatique, de toutes petites choses simples font une grande différence ;
et on finira avec des recommandations pour aller plus loin sur le sujet. Comme d’hab, pas de gros pavés indigestes rédigés par des mecs très contents d’étaler leur technicité, mais une sélection de livres, films, podcasts accessibles et plaisants.
Le sujet vous intrigue ?
Je vous invite à souscrire un abonnement payant pour ne rien rater et soutenir mon travail sur ce sujet qui est rarement traité sous un angle féministe et engagé.
P.-S. : L’IA générative, c’est un sujet riche, complexe et difficile à synthétiser en quelques articles. Si des lecteurices ont envie de compléter ou de corriger certains trucs, faites-nous profiter de votre savoir en commentaires 💜
P.-P.-S. : aucun rapport avec l’IA mais trop important pour ne pas en reparler — signez deux initiatives cruciales pour les droits des femmes et des personnes trans. Ça prend 2 minutes, c’est utile et c’est gratuit.
La pétition de l’asso “Toutes des femmes” pour un changement d’état civil libre et gratuit
L’initiative citoyenne européenne “Ma voix, mon choix”, pour protéger le droit à l’avortement de centaines de millions de personnes dans toute l’UE
Je trouve que les 7 risques que tu évoques sont quand même très inquiétants. On y voit l'immense possibilité de manipulation de l'information notamment pour celleux qui ont les moyens d'utiliser l'IA correctement. J'ai l'impression que le cadre éthique nécessaire met beaucoup trop de temps à exister.