L’humanité était mon horizon
Le procès de l’intelligence artificielle
EPISODE 6 :
Les minutes du procès (4/6)
Juge Mendernier :
Monsieur Johnny Russel, veuillez décliner votre identité et jurer sur la bible du programmeur de faire état de votre savoir, rien que de votre savoir et de tout votre savoir.
Johnny Russel:
Moi, Johnny Russel, chercheur en philosophie, physique et en informatique, je jure de faire état de mon savoir, rien que de mon savoir et de tout mon savoir1.
Juge Mendernier :
Monsieur Russel, je serai direct : comment une intelligence artificielle prend-elle ses décisions ? Attendu qu’elle les prend au nom de toutes et tous la question est d’importance.
Johnny Russel :
Je reprends ce que vient de nous expliquer Monsieur Pascal Pascal. Ce que l’on programme n’est pas le comportement, ce ne sont pas les décisions qu’elle va prendre que nous programmons. Ce sont les « principes » qui vont régir ce comportement, son adaptation à l’environnement, en bref, sa capacité à apprendre seule.Et c’est là que réside selon moi, un problème lié aux algorithmes d’intelligence artificielle. Car, voyez-vous, ces algorithmes sont, par nature, opaques à notre compréhension. Pour qu’un tel système puisse apprendre, il faut d’abord lui fournir de nombreux exemples en entrée, préalablement classifiés par des humains, ainsi qu'une ou plusieurs mesures de performance à optimiser, également prédéfinies par des humains. Dans notre cas, il s'agirait donc de définir algorithmiquement ce qui constituerait de "bonnes" décisions dans le cadre de la politique de notre Macropole et de nourrir le système avec des exemples de bonnes et de mauvaises décisions.
Procureure Denet :
Parce qu’une intelligence artificielle apprend ?
Maître Etalon :
Oui, cher confrère, c’est tout le principe du machine learning, de l’apprentissage machine. Quand on s’empare d’un dossier, il serait bon tout de même d’en connaître un peu le vocabulaire qui lui est propre.
Procureure Denet :
Je ménageais un effet de naïveté cher Maître. Et je vois qu’avec vous, c’est du pain béni !
Juge Mendernier :
S’il vous plaît, on avance dans le débat…
Johnny Russel :
Donc heu oui… le, heu, le machine learning ! Même si, pour ce type d’algorithme, « apprendre » va essentiellement consister à ajuster ses paramètres internes de façon à établir des corrélations entre les variables en entrée afin de prédire au mieux les valeurs en sortie. Et une fois qu’il a appris, il est en principe capable de classifier correctement des instances qu'il n'a jamais vues, c’est-à-dire ici de séparer les « bonnes » des « mauvaises » décisions. Mais le problème est qu’il est, par construction, incapable de dire ce qu’il a précisément vu dans les données et qui l’ont conduit à trancher. Ce sont des boîtes noires.
© Illustre Hâteur
Procureure Denet :
Des boîtes noires ?
Johnny Russel :
Oui et cela pose un problème très sérieux : toute production de connaissance par ce genre d’algorithme ne permet pas de révéler la chaîne de causalité qui a conduit à cette production, donc prive l’humain d’un levier démocratique sur la détermination de son propre avenir. Dans l’éventualité où nous choisirions de confier notre avenir à ce type d’intelligence artificielle, il faut donc être conscient que cela implique que nous renoncions à comprendre les raisons des décisions qui sont prises.
Maître Etalon :
Pour autant Monsieur Russel, dans la mesure où les décisions prises par l'intelligence artificielle sont jugées bonnes par tous, est-il vraiment nécessaire de comprendre comment cette machine, qui ne veut que notre bien, prend ses décisions ? Lorsque je vais chez le médecin, je souhaite un résultat : qu'il me soigne, pas un cours de médecine !
Johnny Russel :
Vous avez raison Maître, la question de la finalité est essentielle : souhaite-t-on simplement que de bonnes décisions soient prises ou cherche-t-on également à les comprendre pour nous améliorer ? Je vais vous donner un exemple : une expérience récente a démontré que des algorithmes d’apprentissage machine2par réseau de neurones se sont avérés plus performants que des médecins humains expérimentés pour diagnostiquer des lésions cancéreuses sur des photos de peau. En vertu de ce qui précède, on a compris que l'algorithme est incapable de dire ce qu'il a vu précisément sur la photo et qui l'a conduit à trancher « cancer » ou « pas de cancer ». La production de connaissances en médecine est donc relativement limitée, puisque les médecins n’apprennent rien de la décision de la machine. On peut bien sûr argumenter que la finalité (ici, soigner des patients) l'emporte sur la volonté de produire des connaissances, du moins à court terme. Dans le cas d’EDIA Nasmushe, on peut poser la question de savoir si, finalement, il serait si grave de ne pas comprendre son cheminement intellectuel dans la mesure où ses décisions sont jugées bonnes par tous... Mais la machine serait alors l'avatar ultime de la technocratie.
Procureure Denet :
Comme vous y allez ! Bon, je vais me faire l’avocat du diable, mais ne pensez-vous pas Monsieur Russel qu'il est néanmoins possible de collaborer avec l'intelligence artificielle, de s'inspirer de ses décisions pour nous améliorer en tant que société ?
Johnny Russel :
Bien entendu, et je ne veux pas faire croire qu’il n’y aurait aucun intérêt à utiliser l’apprentissage machine pour l’aide à la décision. Il existe en effet un certain nombre de techniques qui nous permettent, a posteriori, d’avoir des indications sur les raisons qui ont conduit la machine à prendre telle ou telle décision donc, en un sens, de la comprendre. Certains travaillent également à essayer de l’équiper d’une capacité d’expliciter ses propres décisions, un peu à la manière dont le ferait un humain. Mais on en est encore loin, d’autant plus que le fait de produire une explication implique toujours d’avoir un minimum de références et d’hypothèses sur le monde en commun avec son interlocuteur, ce dont les machines sont pour l’heure dépourvues. Quoiqu’il en soit, dans le cas de notre Macropole et compte tenu de l’état actuel de nos connaissances, il est certainement souhaitable que l’intelligence artificielle soit utilisée comme une aide à la décision et de laisser le mot de la fin à l’humain.
Maître Etalon :
Oui, enfin, excusez-moi mais encore faudrait-il savoir comment l’humain prend ses décisions3 !
Juge Mendernier :
Bien, bien, bien, je vous propose d’appeler à la barre Monsieur Jul Lavoisier-Curie, pour nous éclairer sur la question. Monsieur Lavoisier-Curie, veuillez décliner votre identité et jurer sur la bible du programmeur de faire état de votre savoir, rien que de votre savoir et de tout votre savoir.
Jul Lavoisier-Curie:
Je suis Jul Lavoisier-Curie, chercheur en neurobiologie et je jure de faire état de mon savoir, rien que de mon savoir et de tout mon savoir.
Juge Mendernier :
Monsieur Lavoisier-Curie, comment ça marche la prise de décision chez les humains ?
Jul Lavoisier-Curie:
Excellente question, Monsieur le Président car c’est précisément ce que nous faisons, nous les expérimentalistes, comprendre « comment ça marche ». Les concepts, ok, mais nous, les neurobiologistes, on a besoin de concret ! Pour définir la prise de décision, nous devons l’opérationnaliser, c’est-à-dire qu’il nous faut pouvoir transformer le concept en expérience afin d’analyser le fonctionnement des structures cérébrales pendant ce processus. Le protocole expérimental admet un point de départ et un point d’arrivée et il doit pouvoir être appliqué sur le plus grand nombre d’espèces dans le plus grand nombre de conditions.
Juge Mendernier :
Pas que chez les humains, donc ?
Jul Lavoisier-Curie:
Excellente remarque, Monsieur le Président. Pas que chez les humains. Chez les humains, on pratique les expériences chez de très jeunes enfants, qui sont les seuls à ne pas disposer du langage car cela nous permet de comparer les résultats avec les expériences menées auprès d’autres espèces. Il faut aussi partir d’un cas très simple, celui du choix entre deux options. Un exemple de ce type d'expérience serait que je vous donne à choisir entre un cube bleu et une balle rouge. Vous manifesteriez votre choix en vous saisissant de l'une des deux.
Juge Mendernier :
Et quel serait mon intérêt de choisir l'une ou l'autre ?
Jul Lavoisier-Curie :
Merci Monsieur le Président c'est une excellente question, vous êtes très brillant. Ça dépendra de la structure de l'expérience et de ce à quoi elle est dédiée. Peut-être avez-vous été préalablement instruit qu'une récompense était associée à une forme spécifique ou une couleur spécifique. Par exemple qu'à chaque fois que vous choisissez un objet rouge vous aurez une banane.
Juge Mendernier :
Oui mais moi voyez-vous, je n'aime pas les bananes.
Jul Lavoisier-Curie :
Ce n'est pas la question, un euro alors !
Juge Mendernier :
Serait-ce une tentative de pot de vin ? Sachez, Monsieur Lavoisier-Curie, que je ne bois pas de ce vin-là !
Jul Lavoisier-Curie :
Non, non, c’est juste une expérience de pensée ! Dans la plupart des expériences, c’est justement au sujet de découvrir, par essais et erreurs, la structure interne de l'expérience et la caractéristique qui génère une récompense. Dans les cas simples ce sera une association simple (une couleur ou une forme donnée implique une récompense) mais on peut compliquer à loisir avec des associations gérées par des probabilités (rouge j'ai une chance sur 2 d'avoir 1 banane, bleu 2 chances sur 3). Ce sera au sujet de le découvrir. Le sujet apprend.
Procureure Denet :
Du concret, du concret… Mais quel intérêt d’étudier la prise de décision chez des espèces qui ne peuvent pas en parler ?
Jul Lavoisier-Curie :
Merci Madame la Procureure pour cette enthousiasmante question. Question qui, pour autant n'a pas lieu d'être car c’est tout l’intérêt de notre démarche. Je me répète, nous les neurobiologistes, nous nous concentrons sur le fonctionnement du cerveau pendant le processus de prise de décision ! Votre question n’a d’ailleurs pas lieu d’être car il est notoirement connu chez les psychologues expérimentaux qu’il y a une différence fondamentale entre les stratégies utilisées par les sujets et celles qu’ils verbalisent, quand ils peuvent verbaliser. Un rat ne met pas de mot (du moins pas que l’on puisse comprendre !) sur sa décision, un enfant de 3 mois non plus. Ils n'ont pas besoin de justifier leur prise de décision a posteriori.
Maître Etalon :
IA et humain, même combat, alors ? On sait « comment » ils prennent leur décision mais pas « pourquoi » ?
Jul Lavoisier-Curie :
C'est une merveilleuse question que vous me posez là, Maître Etalon ! Pour comprendre les processus de prise de décision, il faut distinguer intentionnalité, décision et responsabilité ! Je ne peux donner qu’une réponse partielle à la question, la réponse de l’expérimentaliste, celle qui porte sur la décision, c’est-à-dire le comportement qui s’observe, celui qu’on peut mesurer (le cube bleu ou la balle rouge). C’est ce que nous savons faire. En revanche, Le "pourquoi ? ", c’est-à-dire l’intentionnalité de la décision, c’est plus compliqué. Si ça se trouve, Monsieur le Président a choisi le cube bleu parce que le bleu lui rappelle la couleur de la robe qu'aimait porter sa maman et pas du tout parce qu'il lui rapporte une banane une fois sur deux. Et a posteriori, si vous m'expliquez vos raisons (si vous en êtes capable) vous ne saurez peut-être même pas la raison profonde (je vous renvoie vers Freud ou votre école de psychanalyse préférée pour cela). Bref, dans notre expérience à deux options (cube bleu/balle rouge), on lui vole quelque part son intentionnalité. On lui dicte ses choix. Dans la vraie vie, ce sont les sujets qui génèrent leurs besoins, non ? Jusqu’à présent, on ne sait malheureusement pas très bien adresser cette question sur un plan expérimental.
Juge Mendernier :
Êtes-vous en train de nous dire que le libre arbitre n'existe pas ?
Jul Lavoisier-Curie :
Non Votre Honneur ! Seulement que, en tant que neurobiologiste, je ne peux pas répondre à votre très pertinente question, et ce malgré les tentatives qui ont été faites ces 30 dernières années. Tout ce que je peux faire c'est rappeler que notre cerveau a émergé dans un environnement très différent de celui que nous avons construit avec nos sociétés actuelles. Ce qui fait que nos besoins sont différents de ceux pour lesquels notre cerveau a été sélectionné. Notre intentionnalité n'est plus sous-tendue par des besoins "naturels", si tant est qu'ils aient jamais existé, ni par les mêmes besoins que ceux de nos premiers ancêtres Homo Sapiens Sapiens, mais par tout un tas de nouvelles considérations dictées par la société de consommation dans laquelle nous vivons. Pour paraphraser Chuck Palahuck4 "Quand les anciens grecs avaient une pensée, ils considéraient que c'était le don d'un dieu ou d'une déesse […]. Maintenant, les gens courent acheter des chips au paprika après avoir entendu une pub à leur sujet et ils appellent ça le libre arbitre. Au moins les anciens grecs étaient plus honnêtes".
Juge Mendernier :
Et la responsabilité dans tout cela ? Vous ne pouvez rien en dire non plus ?
Jul Lavoisier-Curie :
En ce qui concerne la responsabilité, c'est une notion sociétale qui a changé et continuera à changer au cours de l'histoire. Elle relève plutôt de la philosophie du droit ou des sciences sociales. Si on la réduit à une question neurobiologique, la question est alors de savoir si je suis responsable des décisions prises par mon cerveau. Et peut-on dissocier mon cerveau et mon être ? Je suis intimement convaincu que non.
Procureure Denet :
Merci Monsieur Lavoisier-Curie mais dans le cas qui nous préoccupe ce soir, il nous faut pourtant dissocier le « cerveau » de l’être !
Juge Mendernier :
Certes, certes. J’appelle donc désormais Madame Armande Vergès à la barre. C’est donc vers la juriste que nous nous tournons désormais pour savoir si dans cette affaire on peut trouver un responsable ?
Armande Vergès:
Heu… Je ne dois pas jurer sur le truc du programachinbidule, Votre Honneur ?
Juge Mendernier :
Mais parfaitement Mademoiselle Armande Vergès, il est agréable d’être rappelé à l’ordre par quelqu’un qui respecte les us et les coutumes de cette Cour. Veuillez donc décliner votre identité et jurer sur la bible du programmeur de faire état de votre savoir, rien que de votre savoir et de tout votre savoir.
Armande Vergès :
Moi Armande Vergès, chercheuse en sciences criminelles et de la justice, je jure de faire état de mon savoir, rien que de mon savoir et de tout mon savoir.
Juge Mendernier :
Mademoiselle Vergès, selon vous : qui est responsable du « bug » ?
Armande Vergès :
Bon, comment dire… heu… C’est… C’est compliqué.
Procureure Denet :
Merci de nous rappeler, Madame Vergès, que le droit, c’est compliqué. Car nous l’ignorons c’est vrai… Si le droit était limpide et clair, on serait tous tranquilles à table dans nos chaumières. Je reformule ma question : c’est forcément l’humain, le programmeur donc, le responsable, non ?
Armande Vergès :
C’est-à-dire que… C’est toujours aussi compliqué. Bon, alors, peut-on constater ici une défectuosité du produit ? Si oui, il existe bien dans le code civil un chapitre dédié à ce que l’on appelle « La responsabilité du fait des produits défectueux ». Chapitre qui commence par l’article 1245 qui dispose « le producteur est responsable du dommage causé par un défaut de son produit, qu'il soit ou non lié par un contrat avec la victime». Cet article désignerait donc de prime abord le producteur de l’intelligence artificielle comme responsable civilement des dommages résultant de l’utilisation d’un robot doté d’intelligence artificielle.
Procureure Denet :
Hé bien ce n’était finalement pas si compliqué que ça. C’est même très clair… Merci Mad..
Armande Vergès :
Oui, mais la question ici reste néanmoins de savoir ce que l’on comprend lorsque l’on parle de « défaut » relativement à une intelligence artificielle. Au titre de l’article 1245-3 du code civil, est considéré comme défectueux le produit qui « n’offre pas la sécurité à laquelle on peut légitimement s’attendre ». Mais attention alors à ne pas confondre dangerosité et défectuosité. En effet, un produit peut présenter un certain danger sans toutefois s’avérer défectueux. De l’article 1245-3 ressortent ainsi deux types d’erreurs pouvant engager la responsabilité du producteur : un défaut technique (par exemple une erreur de programmation qui rendrait le produit anormalement dangereux) et un défaut d’information (de l’acheteur qui doit être averti des risques dans l’utilisation du produit afin de le guider dans son utilisation).
Procureure Denet :
En ce qui nous concerne, la défectuosité de l’intelligence artificielle ne semble pas avoir été avérée. Madame Vergès, qu’en est-il en absence de défectuosité avérée du « produit » ?
Armande Vergès :
Comment vous dire… heu… C’est compliqué… Mais je dirais qu’en l’absence de dangerosité due à la défectuosité du produit, une autre solution pourrait sembler envisageable, il s’agit de la responsabilité civile du fait des choses de l’article 1242, alinéa 1er du Code civil qui dispose : « on est responsable […] du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par […] des choses que l'on a sous sa garde ».
Procureure Denet :
Bravo et merci vous nous démontrez que Marguerite Faustus et feu Martin Nasmushe sont bien responsables du bug des sphincter-control !!
Armande Vergès :
Oui… enfin, non… enfin, c’est compliqué… Une notion pose encore problème : celle de la garde. En effet, pour être tenu pour responsable, le gardien doit disposer des pouvoirs d’usage, de contrôle et de direction sur la chose, c’est-à-dire ici l’EDIA. Pas simple dans notre cas, car l’intelligence artificielle est supposée disposer d’une liberté décisionnelle qui la rend, en partie en tout cas, autonome. Cette autonomie fait obstacle à un contrôle effectif du gardien. Ainsi, il ne semble pas possible d’appliquer cette responsabilité.
Procureur Denet :
Madame Vergès, êtes-vous bien en train de nous dire qu’au final, la responsabilité incombe à l’intelligence artificielle ? S’il faut mettre quelqu’un sous les verrous, c’est l’EDIA. Enfin bref, dans notre cas, on tranche alors le second débat, il faut désactiver l’EDIA !
Armande Vergès :
Madame la Procureure, il faut que je vous le dise, vraiment, c’est plus compliqué que cela. En matière pénale, on se place sur un terrain différent : celui de la sanction et non plus simplement celui de la réparation. La responsabilité pénale étant fondamentalement personnelle, il faut distinguer les infractions intentionnelles et non intentionnelles. Dans le cas d’une infraction intentionnelle (c’est-à-dire lorsque le contractant a été trompé, que ce soit sur les qualités substantielles, sur l’aptitude à l’emploi, sur les risques inhérents à l’utilisation etc) alors là, il est possible de se rattacher au droit pénal de la consommation. Il faudra simplement (mais, c’est souvent compliqué) apporter la preuve de la matérialité de la tromperie ainsi que de l’intention de l’auteur de tromper le contractant. En cas d’infractions non intentionnelles, c’est différent. Si un « bug » survient, blessant ou entraînant la mort d’un individu, alors on cherchera un responsable pénal, personne physique ou personne morale. En matière de robots dotés d’intelligence artificielle, c’est compliqué car, en temps normal, les participants au produit final sont nombreux et il semble parfois difficile de savoir avec exactitude d’où provient l’erreur.5 Et tout cela devient encore plus compliqué avec l’accroissement de l’autonomie en matière d’IA aujourd’hui qui provoque des situations où il n’existe pas nécessairement d’erreur humaine à la base d’un « bug » mais l’intelligence artificielle dans son évolution va commettre des erreurs. Une seule chose est sûre : le robot en tant que tel, l’intelligence en tant que programme, n’a pas de responsabilité au regard de la loi !
Juge Mendernier :
L’important est donc de savoir QUI contrôle. Mais là…
Armande Vergès :
Alors là, pour le coup, c’est vraiment simple… c’est…
Des femmes, depuis le public :
Les biaiseurs ! Ce sont les biaiseurs les contrôleurs ! Ce sont les biaiseurs qui contrôlent !
Chloé Toupirre, en facetime discret pour le Macropolit’ Live :
Prise d’otage ? Attentat intellectuel ? Que se passe-t-il dans le tribunal ? Une bonne dizaine de femmes vient de se lever dans le public mais je n’arrive pas à lire leurs banderoles, ni à bien entendre ce qu’elles scandent. C’est la cacophonie ici. Le Juge Mendernier tape tape tape de son marteau. Il parvient à reprendre la parole.
Juge Mendernier :
Qu’est-ce que c’est que ce bazar ? Silence ! Dois-je vous rappeler où nous nous trouvons ?
Femme 1 :
Nous le savons parfaitement M. le juge. Nous sommes le collectif pour la « BIAISE » Pour la Bonne Intelligence Artificielle Intrinsèquement Sexuée Égalitairement…
Juge Mendernier :
C'est-à-dire ? Qu’est-ce que c’est que ce charabia…
Femme 2 :
C'est-à-dire, M. le Juge, que nous souhaitons attirer l’attention de toutes et tous sur le fait que l’IA est ce que nous en faisons… Or, les chercheurs sont majoritairement des mâles blancs… Ce qui fait que l’IA aura de fait un biais et reproduira les injustices patriarcales.
Femme 3 :
Dans les écoles d'ingénieurs en informatique, on dénombre moins de 10 % de femmes. 12 % seulement des chercheurs en IA dans le monde sont des femmes. Scandale ! Nous ne voulons plus nous faire « biaiser » de la sorte !
Procureure Denet :
C’est proprement honteux ! Mais, heu… comment vous expliquez ça ?
Femme 4 :
C’est bien simple : dès leur arrivée dans les foyers, les ordinateurs ont été commercialisés comme un outil de jeu pour les hommes. Nombre d'entrepreneurs tech racontent en effet avoir découvert le code à travers les jeux vidéo. Et pendant ce temps-là, les filles étaient reléguées à jouer à la poupée !!!
Juge Mendernier :
Bien, bien, bien, d’accord c’est malheureux mais est-ce que la Cour pourrait reprendre le cours normal de…
Femme 5 :
Attendez ! C’est très important d’avoir une pluralité de visions, et donc une pluralité de personnes dans l’équipe qui développe des outils numériques. Sans ça, on risque de créer des discriminations technologiques : certaines personnes seront écartées parce qu’un biais a été introduit lors de la phase d’entraînement de l’algorithme.
Maître Etalon :
Mais vous avez des preuves de ce que vous avancez ? Parce que là, c’est flou quand même…
Femme 6 :
Des preuves ?! Mais on ne sait plus quoi en faire ! Encore aujourd’hui, certains algorithmes de recrutement ont tendance à défavoriser les CV des femmes. Les logiciels de reconnaissance faciale sont toujours plus efficaces sur les hommes blancs et il y a peu l’algorithme de Google confondait les portraits d’Afro-Américains avec des gorilles…
Femme 4 :
Et puis rappelons-nous ce scandale : en octobre 2019, Amazon, qui utilisait une intelligence artificielle depuis 2014 pour trier automatiquement les CV, a heureusement mis fin à un système de sélection qu’ils avaient mis en place. Nourrie par des données récoltées entre 2004 et 2014, l’IA affublait systématiquement de mauvaises notes les candidatures de femmes pour les métiers techniques, comme développeuse web. Principale raison : sur cette période, l’entreprise embauchait quasiment exclusivement des hommes. L’IA ne faisait que reproduire ce qui se faisait, sexisme compris.
Femme 2 :
Oui, Les Algorithmes sont de véritables bombes à retardement6 !!! Des « boucles de rétroaction » qui entraînent une spirale négative dont l’intelligence artificielle est incapable de sortir.
Femme 5 :
Le problème c’est que nous entraînons les algorithmes avec des données d’un monde profondément inégalitaire ! Et ça c’est un fait… Ce n’est pas de la science-fiction…
© Illustre Hâteur
Femme 1 :
Ce que nous défendons nous le défendons pour toutes et tous… Pas seulement pour nous. Nous voulons nous assurer que toutes les personnes soient représentées, quel que soit leur genre, leur couleur de peau, leur religion ou encore leur orientation sexuelle. Et c’est plus que nécessaire.
Femmes :
Biaiseurs ! Biaiseurs ! Biaiseurs !
Juge Mendernier :
Silence !!! C’est n’importe quoi ce grand n’importe quoi !!! Je veux de l’ordre ici, je ne tolérerai pas que l’hystérie vienne souiller ce temple sacré de la justice. Tumultus solum sonitum dat et dignitatem oblivionis in noctem mergit ! Le désordre ne crée que du bruit et plonge la dignité dans la nuit de l'oubli !
Procureure Denet :
Ah mais là, je confirme ! Vous vous souvenez de Tay, l’intelligence artificielle de Microsoft ? Elle était censée incarner une teen-ager américaine, fan de Taylor Swift et du clan Kardashian, elle a fait ses premiers pas sur Twitter… Et, en moins de 24 heures, elle était devenue raciste et sexiste au contact des internautes.
Maître Etalon :
Monsieur le Président, objection ou tout ce que vous voudrez, mais il est hors de question que cette discussion fasse partie des minutes du procès ! Greffière, veuillez cesser votre travail de retranscription… Non, parce que sinon cela va introduire un sacré biais dans le procès…7 Monsieur le Président, ce tribunal n’est pas un espace de revendication ! Faites-les taire ou faites-les sortir, que cela cesse !
Les Femmes du collectif :
Marylin avec nous ! Marylin avec nous !
Juge Mendernier :
Mesdames, cessez vos commérages, je vous demande de vous arrêter, de vous taire ou de sortir ! Vous n’êtes pas à l’ordre du jour et je déteste qu’on me prenne par surprise !
Marylin Morrisson:
Monsieur le Président, si vous ne les écoutez pas peut-être m’écouterez-vous ? Car oui, je fais partie des personnalités signataires de la tribune de la B.I.A.I.S.E. Et que vous le vouliez ou non, il vous faudra bien savoir qu’il existe réellement un rapport entre la personnalité de la plupart des ingénieurs et le sexisme éventuel qui se niche dans leur travail ! J’en veux pour preuve les mots du psychanalyste Michaël Stora, observateur des univers numériques. Il nous apprend que, je cite « Les jeunes accros aux jeux que je soigne se dirigent souvent vers les métiers de programmeur. Ces garçons brillants ont un rapport au monde très pragmatique, qui manque parfois d’empathie. Ils développent une vision du monde rationalisée, à l’image des algorithmes. C’est pour eux une manière d’échapper à la complexité de l’être humain. Il y a parfois chez eux une sorte de nihilisme qui fait froid dans le dos. Dernièrement, j’ai entendu un jeune travaillant dans le numérique dire : “J’ai une idée d’appli : mettre en relation des ventres (des futures mères porteuses) et les gens qui en cherchent.” La plupart de ceux que j’ai suivis ont peur des femmes, et sont très machistes. » Édifiant, non ? Pour éviter que le monde ne soit un jour façonné uniquement par des machistes, nous les femmes, nous devons cesser de fuir les filières technologiques ! Avec la robotisation, d’innombrables emplois disparaissent, en même temps que d’autres émergent, comme « data miner » par exemple (qui signifie savoir exploiter des milliards de données). Alors, si nous, les femmes, restons ultra-minoritaires dans la tech’, nous nous couperons du marché du travail. Et resterons prisonnières des stéréotypes.
Femme 2 :
Sachez Votre Honneur que la quantité de testostérone présente dans la Silicon Valley n’est pas pour rien dans le biais. Ce n’est pas un hasard si les robots ont des corps d’actrices pornographiques et si pratiquement tous les assistants virtuels sont des femmes.
Femme 3 :
D’après son créateur, Siri signifie en norvégien « belle femme qui vous conduit à la victoire » !
Femme 4 :
Et le prénom de l’application de Microsoft, Cortana, vient de la « bombasse » du jeu vidéo Allo !
Maître Etalon :
N’allez pas chercher la petite bête, ces assistants personnels ont des voix de filles par défaut, tout simplement parce que ça rassure les utilisateurs.
Femme 5 :
C’est un renforcement des stéréotypes sexistes ! Vous nous cantonnez à ce rôle de secrétaire sexy à votre service. Dans un futur proche, serons-nous sexuellement harcelées par des robots machos ? Nous posons très sérieusement la question !!!
Femme 6 :
Ce n’est plus possible !!!
Femmes :
Ce n’est plus acceptable !!!8
Juge Mendernier :
Bon, désolé Marylin, mais…
Marylin Morrisson:
Et puis, Monsieur le Président, cessez une bonne fois pour toutes de m’appeler par mon prénom… C’est parce que je suis une femme que vous vous permettez ça ?9
Juge Mendernier :
Heu non… Bien sûr que non… Mais belli ut belli. … A la guerre comme à la guerre… Vous l’aurez voulu, Mesdames… Je fais évacuer la salle et demande une suspension d’audience. Tout le monde dehors ! Oust ! On fait évacuer la salle…10
1 Je me passerais bien de noter à chaque fois cette formule… Comme si des témoins pouvaient répondre par la négative… Ah la la ! les rituels ritualisants ce que ça peut être redondant parfois. Note de bas de page pour faire avancer et changer les choses de Géraldine Atable d’Haute, greffière du tribunal.
2 Ou « machine learning », le terme anglais est parfois plus répandu dans la communauté scientifique et via son truchement aussi vers le grand public. Ce qui m’amène à corriger ma dernière note. Me servant d’un ordinateur il s’avère donc que je compute un peu… Note bilingue de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
3 Bim bam boum badaboum ! Voilà qui est savamment envoyé! Il nous envoie ça telle une sentence, en plein dans les yeux … La salle retient son souffle et plonge dans les affres de la réflexion. Moi-même je me demande fortement comment ce matin j’ai choisi de boire tel café plutôt que tel autre thé ? Note philosophique de comptoir de Géraldine Atable d’Haute, greffière du tribunal.
4 Il s’agit de l'auteur de « Fight Club ». Note cinématographique de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
5Dans le doute, penser à renvoyer mon nouveau lave-linge-vaisselle intelligent. Note très personnelle qu’il faudra penser à enlever une fois cette note renotée dans mon agenda personnel que j’avais oublié de prendre avec moi… je n’ai plus toute ma tête depuis que ce procès a commencé. Note embrouillée de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
6 Cette formule renvoie sûrement à ma lecture de jeunesse qui était pour moi un vrai livre de chevet : Cathy O’Neil, mathématicienne, « Algorithmes, la bombe à retardement » (Les Arènes, novembre 2018). Note littéraire de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
7 Biais ou pas, Maître Etalon, moi je suis bien obligée de noter… Et puis je trouve d’un point de vue personnel que ce qui est dit doit être entendu… Alors je le note. Moi, comme le colibri au moins j’aurai fait ma part. Et puis si je dois me faire virer j’en appellerai à la discrimination. Note engagée de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
8 Parfaitement !!! Je suis bien d’accord avec ça ! Note revendicative mais nonobstant raisonnée de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
9 Ah ben voilà, enfin, bravo ! Et haro sur les misos ! Note libératrice de bas de page de Géraldine Atable d’Haute, greffière du tribunal.
10 Bien plus que la salle, j’ai personnellement l’impression que c’est la question qu’il cherche à faire évacuer… Note suspicieuse de bas de page de Géraldine Atable d’Haute, greffière du tribunal.