Peut-on utiliser l’IA quand on est de gauche ?
Ma réponse aux personnes qui ont été choquées.
J’ai entamé il y a quelques semaines une série d’articles sur les intelligences artificielles génératives.
(Du genre de Claude, chatGPT ou Midjourney, en gros.)
Mon objectif : essayer de motiver mes lecteurices à s’intéresser à ce sujet et à se servir de ces outils.
En réponse à ces posts, plusieurs personnes m’ont écrit, en substance :
“Je suis choqué·e que tu promeuves l’IA !
Tu es de gauche, féministe, et ces outils ne sont pas OK sur le plan éthique.”
(Parce qu’ils polluent, parce qu’ils sont promus par de grosses entreprises capitalistes aux objectifs pas bien nets, parce qu’ils nécessitent du travail précaire…).
Merci à elles d’avoir pris le temps de me le dire — c'est une question passionnante, et je suis contente d’avoir l’occasion d’y répondre.
D’abord, sur le plan éditorial, je comprends que mes articles plus “techniques” aient pu frustrer certaines personnes.
L’objet de cette infolettre, à la base, c’est de politiser l’intime.
Et avec ces derniers posts, je me suis éloignée de ce désir et de cette raison d'être.
Par exemple, était-ce vraiment pertinent, par rapport au projet que je me suis donné avec Le Grain, de vous proposer une liste d’astuces pour utiliser chatGPT ?
Mmmmouais, bof, peut-être pas. Ou pas de cette façon.
Je me le note pour la suite : faire attention de ne pas être emportée par un sujet au point de ne plus respecter la promesse qui vous est faite quand vous vous inscrivez à l'infolettre.
Mais bien sûr, ce serait très hypocrite (et paternaliste) d’enterrer la question de fond que m’ont posée les lecteurices sous ce seul sujet d’alignement avec ma ligne éditoriale.
Au-delà de la cohérence éditoriale, se présente un sujet de fond et de taille :
peut-on utiliser l’IA quand on est de gauche ?
Malgré tous les problèmes éthiques qu’elle pose ?
Allons-y.
Pour commencer, je dois dire que je suis toujours gênée par ces questions qui opposent :
être de gauche (ou être féministe)
et
faire un truc pas être parfait sur le plan éthique.
(Vous savez, les questions du genre “peut-on être féministe et porter du rouge à lèvres ?” ou “peut-on être de gauche et acheter de la fast fashion ?”).
Je trouve que ça nous entrave beaucoup, car en régime capitaliste, le fait est qu’on passe toustes notre temps à participer à des trucs très moyens sur le plan éthique.
Je ne crois pas à la pureté comme concept politique.
On ne peut pas dédier toute notre énergie à culpabiliser : déjà parce que ce n’est pas tenable sur le plan mental et aussi parce que ça ne sert à rien au niveau collectif.
A mes yeux, utiliser les IA n’est pas plus cynique qu’utiliser un smartphone.
Dans les deux cas, il y a des personnes et des ressources gravement exploitées pour une technologie qui n’est pas vitale et dont, pourtant, on se sert quotidiennement.
En outre, le fait de s’attacher beaucoup à la vertu individuelle finit par aplanir notre pensée politique.
On a tendance à mettre tous les sujets au même niveau.
Par exemple, une lectrice a mis sur le même plan le fait que l'extrême-droite arrive au pouvoir, et le fait qu’une personne, à titre individuel, utilise les IA génératives.
J’entends la peur sincère que cette lectrice essayait d’exprimer, et je la prends au sérieux.
Mais je trouve aussi que ce parallèle montre comment, à trop se crisper sur des comportements individuels, on peine à hiérarchiser (en gravité et en urgence) des dangers d’amplitude très distincte.
Plutôt que de viser un comportement personnel irréprochable, je crois qu’on a intérêt à réfléchir à ce qu’on peut faire pour faire bouger les lignes ensemble.
Remplacer la recherche de la vertu individuelle par celle de l’émancipation collective, en gros.
Cela étant, si je comprends bien ce qu’on me dit, c’est en gros :
“Oui, on utilisera les IA quand on n’aura vraiment plus du tout le choix…
Mais, en attendant, on refuse d’y tremper ne serait-ce qu’un orteil”.
En gros, on sait très bien qu’on va devoir s’y mettre, mais on préfère attendre qu’on nous fasse une clé de bras, pour garder la conscience tranquille.
Je ne suis pas convaincue par la justesse de l’argument.
D’ici là :
Qui construit son expertise sur ces outils ?
Qui apprend à connaître leurs biais ?
Qui oriente leur évolution ?
L’autruche, le sable, tout ça.
Où met-on le curseur du cynisme ? Et celui du pragmatisme ? Et celui de l’hypocrisie ?
Je vais être honnête avec vous : je n’ai pas de réponse définitive à ces questions.
En clair : je ne suis pas entièrement sûre d’avoir raison d’utiliser les IA génératives de la façon dont je le fais.
Ce dont je suis vraiment convaincue, en revanche, c’est que :
même si vous refusez d’utiliser les IA, vous devez absolument vous y intéresser.
Savoir comment elles fonctionnent, par exemple. Ce dont elles sont capables. Leurs limites. Qui veut les utiliser et pourquoi.
Pourquoi ?
J’ai déjà donné, dans un précédent article, deux raisons de s'intéresser à l’IA : par curiosité intellectuelle, et aussi parce que les intelligences artificielles génératives sont là pour durer.
Aujourd’hui, je ne vais pas revenir là-dessus (si ça vous intéresse de lire ça, c’est par ici), mais plutôt creuser les raisons pour lesquelles détourner le regard ne suffit pas.
Une lectrice a fait un parallèle intéressant avec l’avion.
Selon elle, le fait que j’invite à utiliser l’IA, c'était un peu comme si j’essayais de vous inciter à prendre l’avion pour le plaisir du voyage, en occultant l’aspect écologique.
Je trouve que c’est une comparaison utile.
Ne pas prendre l’avion, à titre individuel, c’est génial. J’ai beaucoup de respect pour les gens qui tiennent cet engagement et je m’inflige moi-même des Berlin-Paris en train pour des raisons écologiques.
(Là, je me retiens très fort pour ne pas écrire 72 paragraphes sur la nullité absolue de la compagnie ferroviaire allemande et le fait que j’en ai vraiment ras-le-cul de payer les yeux de la tête pour un train presque toujours en retard voire en panne. Oups, c’est sorti tout seul.)
Mais si on veut limiter la pollution liée au transport aérien, le fait de ne pas prendre l’avion de son côté ne suffit pas du tout.
Il faut réfléchir à d’autres moyens de transport et les raisons pour lesquelles les transports alternatifs à l’avion sont souvent plus chers, militer pour taxer le carburant des avions, financer correctement les réseaux ferroviaires… Il faut aussi éviter de tracer une ligne morale inflexible entre les-gens-bien-qui-prennent-le-train et les-gens-mauvais-qui-prennent-l’avion.
Pareil avec les IA.
Si vous ne voulez pas les utiliser à titre individuel, c’est votre droit (évidemment !).
Mais si vous voulez influer sur le cours des choses, il va quand même falloir s'intéresser à la façon dont elles sont utilisées par les entreprises et les gouvernements, à leurs sous-jacents techniques, aux différentes entreprises qui les conçoivent et à leur vision du monde, à leurs alternatives, aux raisons pour lesquelles elles ont été créées…
Mettre une étiquette “mauvais” et pousser le sujet sous le tapis ne suffit pas.
Et ce qui me fait flipper, c’est que contrairement aux gens qui ne prennent pas l’avion par engagement militant et qui, en général, s'intéressent à l'écologie…
Les gens qui n'utilisent pas les outils d’intelligence artificielle ont tendance à s’en désintéresser purement et simplement.
C’est là où le parallèle avion/IA commence à flancher, d’ailleurs : c’est quand même difficile de bien comprendre une technologie, ses enjeux et ses risques, sans jamais l’utiliser.
Pour conclure, j’aimerais rappeler que je ne défends pas l’IA en mode “youpi c’est génial !”.
J’ai rédigé un article détaillé, long et précis sur ses risques.
C’est sans doute le meilleur de la série.
Vous pouvez le retrouver ici :
Ce sont des analyses que je ne vois presque nulle part ailleurs en langue française.
Je ne le dis pas pour me jeter des fleurs.
(Quoique. Je suis pas contre 2-3 pétales de rose j’avouuuuuue.)
Mais il est manifeste que, sur le sujet des intelligences artificielles génératives, on souffre à gauche d’une réelle carence de pensée politique et stratégique.
Encore plus chez les féministes.
En résumé : je ne dis pas que mon approche par rapport aux IA génératives est indubitablement la bonne.
On en est au tout début, je tâtonne, peut-être que je fais et dis des conneries. Merci aux personnes qui m’ont écrit et me font réfléchir à mes angles morts et mes zones d’ombre.
Par contre, je suis certaine que condamner en bloc et regarder ailleurs ne suffit pas.
Et je suis inquiète d’entendre, sur ce sujet, si peu de nuances et si peu de voix.
Ce post fait partie d’une série sur l’intelligence artificielle.
On a décortiqué ensemble :
mon fort sentiment de flemme initial sur le sujet ;
les risques réels de chatGPT et consorts — ce ne sont pas ceux dont on entend parler partout ;
quelles sont les tâches qu’on peut confier aux intelligences artificielles génératives et celles, au contraire, à garder pour soi ? ;
et on finira avec des recommandations pour aller plus loin sur le sujet. Comme d’hab, pas de gros pavés indigestes rédigés par des mecs très contents d’étaler leur technicité, mais une sélection de livres, films, podcasts accessibles et plaisants.
Le sujet vous intéresse ?
Je vous invite à souscrire un abonnement payant pour ne rien rater et soutenir mon travail, sur ce sujet rarement traité sous un angle féministe et engagé.
A la semaine prochaine.
Je n'ai pas d'avis particulier sur la ligne éditoriale de ta newsletter : pour moi, tant que le propos est bien construit et un peu militant, c'est toujours intéressant. Et je vais te dire : je bosse dans la communication, je pense qu'une partie de notre chiffre d'affaires en dégringolade est lié à l'utilisation de tous les outils grand public qui utilisent de l'IA pour simplifier la création aux personnes lambda. Du coup, pas très envie de m'y penser au départ. Surtout que jusque là, ChatGPT ne m'avait pas franchement montré qu'il y avait matière à s'inquiéter (si je le compare à la prise de recul d'un cerveau humain). Et finalement, tu m'as convaincue. Je m'y intéresse maintenant beaucoup (sans l'utiliser énormément par contre) et je vais sans doute devoir l'intégrer dans les formations que je donne. Donc pour moi, ça reste un fort sujet d'empouvoirement : comprendre son environnement et choisir le rôle qu'on veut jouer dans ces évolutions. Pouvoir aussi expliquer à autrui comment bien faire et ne pas utiliser l'outil trop naïvement.
Merci pour cette réflexion. Pour mal paraphraser « L’art de la guerre » : « connais ton ennemi ». Le problème ce n’est pas l’IA en soi, ce sont les systèmes qui y président et ces systèmes comptent sur le manque de curiosité de certain•e•s pour construire le monde qui leur convient.