Associations liées à l'Open Source

Réunion du groupe de travail Sensibilisation de l'April jeudi 24 septembre 2020 à 17 h 30 (accueil à 17 h 15) à distance

APRIL - mer, 09/23/2020 - 10:35
Start: 24 Septembre 2020 - 17:15End: 24 Septembre 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 24 septembre 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Surveillance numérique ; état des lieux - Radio Agora - Nanterre

APRIL - mar, 09/22/2020 - 15:20


Titre : Surveillance numérique ; émission 1 : état des lieux
Intervenant·e·s : Audric Gueidan - Adèle Frantz
Lieu : Adèle surveille - Radio Agora - Nanterre, la wikiradio des initiatives citoyennes
Date : 16 juillet 2020
Durée : 40 min 52
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Direction libre, Open-DSI - Licence Creative Commons Attribution 3.0 non transposé
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

En compagnie d'Audric, médiateur informatique, Adèle s'interroge sur notre relation aux outils numériques. Dans quelles mesures représentent-ils un risque pour notre vie privée et nos libertés individuelles ? Pouvons-nous parler de « surveillance numérique » ?

Transcription (relu avec audio par véro)

Diverses voix off : Salut les Nanterriens.
La vie privée d’un athlète, ça se respecte même si Jean-Claude a peut-être tout essayé en matière d’aphrodisiaques et autres prothèses, en tout cas cela ne nous regarde pas.
Mon petit père, mets les cartouches dans le fusil, on lâche les chiens.
Ce n’est certainement pas à nous de divulguer les ragots comme quoi il serait homosexuel.
Tout à fait.
Cela ne nous regarde pas !

Adèle Frantzf : Deux évènements ont marqué mon confinement.
Le premier c’est quand j’ai reçu l’appel de ma vielle amie Annabelle — Salut Annabelle ! Avec Annabelle on a grandi ensemble en région PACA. Heureusement on n’a pas gardé notre accent en grandissant.

Voix off : Tu sais cet accent quand je parle tu sais d’où je viens.

Adèle Frantzf : Finalement moi j’ai préféré Nanterre et Annabelle est allée s’installer à Toulouse. Depuis, désolée Annabelle mais c’est vrai, elle a un chouille l’accent toulousain, mais bon !, on va lui pardonner.

Voix off : Traître !

Adèle Frantzf : Donc ce jour-là, en plein confinement, elle se baladait dans les rues de la ville rose avec son nouveau bébé tout neuf et son homme. Vous allez me dire mais que faisait-elle en plein confinement à flâner dans les rues avec son bébé alors qu’elle devrait être cloîtrée chez elle? Était-elle légitime d’être là ? Avait-elle rempli son autorisation ? Et le bébé avait-il une autorisation ? Ah ! Les Françaises sont quand même vraiment indisciplinées… Stop ! Déjà on se calme, je n’ai pas dit qu’elle flânait et puis la raison de son déplacement, cela ne nous regarde pas !
Toujours est-il qu’Annabelle a levé la tête quand elle a entendu une voix métallique voler au-dessus d’elle. C’était un joli drôle de drone qui flottait à quelques mètres de leurs têtes en susurrant : « Police nationale. Veuillez respecter les distances de sécurité ». Elle s’effraya d’abord « c’est quoi ce truc de taré ? », et puis elle a rigolé ensuite « c’est quoi ce truc de taré ? » Elle tourne la tête et voit un policier au coin de la rue faire son geek avec la manette, « mais c’est quoi ce truc de taré ? »
Et puis elle a oscillé comme ça un temps, entre le rire et l’angoisse.
Le deuxième évènement marquant de mon confinement c’est quand j’ai appris qu’une femme avait été mise en garde à vue non pas pour voir un clitoris mais pour avoir affiché une banderole sur la façade de sa maison avec écrit « Macronavirus, à quand la fin ? ». Dénoncée par un voisin ou tout simplement arrêtée après le passage d’une brigade, dans tous les cas l’ironie créative n’a pas plu. Ferme ta gueule, détour case prison, pan pan fessée, rentre au terrier. Confinée, oui, mais sois sage et n’insulte pas celui qui, à priori, est encore ton souverain auquel tu dois allégeance.

Ces deux drôles de drames m’ont fait l’effet d’une bombe.
Le premier me projeta directement dans 10/15 ans, quand le bébé d’Annabelle aura été biberonné aux bruits généralisés d’insectes robotisés et leurs gueules de mouches aux gros yeux voltant, furetant la moindre info, soumettant la populace au couvre-feu, surveillant les faits et gestes des révolutionnaires en herbes folles. Un temps où l’on deviendra mélancoliques du temps où le ciel était juste le ciel avec des nuages ou du bleu, peuplé de chants d’oiseaux, et le film La guerre des mondes nous semblera naïf et grotesque. Alors je prendrai le maquis, enfin, s’il reste des arbres, et je couperai le canon de la carabine du grand-père. Je jouis déjà à l’idée de tirer sur les drones avec mes balles de plomb et de les voir s’écraser au sol comme un amas vulgaire de fils et de vis. Je les finirai à coups de bâtons et je pendrai la micro-caméra encore à moitié opérante sous les yeux ronds de la Technopolice à l’autre bout. Oui, vous ne le saviez pas mais ça s’appelle la Technopolice, celle qui reste derrière les caméras de surveillance à Nice, caméras inutiles, caméras qui ont eu au moins l’avantage de faire de magnifiques images d’archives des attentats du 14 juillet. C’est l’Ina qui va être content. Mon bâton dans les mains et le drone tout penaud devant moi je dirai à la Technopolice [inaudible], avant de l’écraser lentement avec mon talon à la manière de Clint Eastwood avec sa cigarette. J’ai dit maquis, j’ai dit carabine, j’ai dit grand-père, Clint Eastwood, mais soyons clairs, je n’ai aucune mélancolie pour l’ancien temps.
Vous voyez, le coup de la banderole « Macronavirus », elle, me rappelle une surveillance à l’ancienne, celle de la Stasi. Le monde des croix gammées sur les murs, le monde sur écoute de La Liste de Schindler, le monde de la machine à écrire. « Macronavirus, à quand la fin ? » Les chiens de garde, depuis quelques années, n’ont même plus la décence de nous laisser l’illusion qu’on peut encore rire, critiquer et penser impunément. Mais bon ! Ça ce n’est pas nouveau.
Oui. La surveillance de masse du futur sera technologique. Je dirais même numérique, digitale.

Voix off : Vous parlez d’Internet, mais Internet c’est magique enfin ! C‘est la vie, c’est la libération, c‘est le cloud et tout ça. Je peux « zoomer » avec mes petits-enfants, je peux envoyer une photo de mes fraisiers à ma copine Germaine pour lui montrer que les miens sont mieux coupés.

Adèle Frantzf : Évidemment, une invention incroyable, ça dépend toujours dans quelles mains elle tombe. Parlez-en à feu Marie Curie qui n’aura pas vraiment idée de ce que les habitants d’Hiroshima subiront à la suite de sa découverte.
Donc le monde n’a pas attendu Internet pour surveiller et contrôler les plus réfractaires aux règles, mais cet outil apparaît comme l’outil idéal de surveillance de masse.
Oui, parce qu’il y a une entité qui me connaît mieux qu’un drone, mieux que mon voisin, mieux que la police, une entité qui sait que j’ai tapé « remèdes naturels contre les hémorroïdes » le 17 mai 2018 à 21 heures 18, même moi je ne m’en souvenais plus ! L’entité dont on parle, celle qui me connaît que moi, ce n’est pas que Google. L’entité, c’est cette liste des cinq géants du numérique, les GAFAM.

Voix off : C’est quoi ? Une mutuelle ?

Adèle Frantzf : Il s’agit de Google, Amazon, Facebook, Apple, Microsoft.

Voix off : Ils ont créé Internet, ils savent tout ce que vous faites, quand vous mangez, pissez, pensez, à midi ou à 3 heures du mat. GAFAM, 1984 la nouvelle mini-série Netflix.

Adèle Frantzf : Les GAFAM, c’est joli sur le papier, c’est l’émancipation humaine, le savoir, le mélange des cultures, la communication entre les êtres, la liberté d’expression. Tout ça c’est la partie émergée de l’iceberg.

Voix off : Putain ! Merde !

Adèle Frantzf : Et quel putain d’iceberg !

Voix off : Merci. Iceberg droit devant ! Arrêtons tout !

Adèle Frantzf : Et si on plongeait ensemble dans le monde invisible de la surveillance du Net ? Pour cela, j’ai invité Audric Gueidan, grand spécialiste de la surveillance digitale. On va plonger ensemble dans un nouveau cortex. Suivez-moi.
Salut Audric.

Audric Gueidan : Bonjour Adèle.

Adèle Frantzf : Audric, il y a cinq ans, tu troquais ton ordinateur Mac contre un système d’exploitation en mode logiciel libre et tout le monde à l’époque, je me rappelle, te regardait vraiment bizarrement. Tu disais qu’on était surveillés. Même moi je me disais « il est quand même un peu parano le mec », alors que maintenant c’est comme la question de la viande. Les gens sont de plus en plus sensibilisés à cette question et toi tu passes pour un pionnier en fait, c'est la classe totale ! Et puis entre temps tu es devenu médiateur numérique. Déjà, Audric, c’est quoi ce métier un peu bizarre, médiateur numérique ?

Audric Gueidan : C’est un terme un peu fourre-tout dans lequel je mets plein de choses. Déjà le fait de faire de la médiation c’est servir d’intermédiaire entre deux ou plusieurs choses pour faciliter un transfert de connaissances, par exemple d’un individu à l’autre. Dans le cadre du numérique, en tout cas pour moi, l’objectif c’est d’accompagner un utilisateur ou plusieurs à maîtriser les différentes technologies, les enjeux, les usages, toutes ces questions de la culture du numérique, de la culture du Libre, il y a beaucoup de sensibilisation. Du coup je fais la médiation entre l’homme et la machine, entre l’usager et l’outil informatique.
Concrètement ça peut être plein de trucs. Ça peut être des cours d’informatique un peu classiques, le b.a.-ba de l’apprentissage de l’ordinateur : comment allumer une machine, comment se créer une adresse mail, envoyer un courrier, des pièces jointes, transférer des fichiers, toutes ces choses-là. Des choses un peu plus techniques : l’utilisation d’une tablette, l’intérêt d’un smartphone, les applications qu’on peut utiliser dessus, et également toute la partie sensibiliser les gens aux enjeux du logiciel libre dont on va reparler. Évidemment parler de la surveillance et de la protection des données, c’est un sujet qui m’anime depuis quelque temps. On peut également parler de robotique ou de fab labs, les fameux lieux de fabrication numérique dans lesquels les gens apprennent grâce à leurs pairs – p,a, i, r, s, pas les papas. On apprend ensemble, on s’échange des compétences, toujours avec l’idée d’accompagner les gens, le public, pour les rendre autonomes, leur permettre de mieux comprendre, de faire par eux-mêmes et de prendre des décisions, d’avoir le choix.

Adèle Frantzf : Justement, pour mieux comprendre, parce que là tu parles de surveillance, tu parles de logiciel libre, en fait c’est quoi le Libre ? Ça veut dire que nous on n’est pas libres et que toi tu es là un peu pour nous libérer ? Et pourquoi c’est aussi important pour toi cette différence entre libre et pas libre ?

Audric Gueidan : Il faut déjà définir ce qu’est un logiciel libre.
Un logiciel qui est considéré comme libre va respecter quatre libertés :

  • la liberté 0 qui est la liberté d’utiliser le logiciel pour quelque usage que ce soit ;
  • la liberté 1 c’est étudier le fonctionnement du programme et de pouvoir l’adapter à son besoin, c’est-à-dire pouvoir accéder au code source. J’accède à la recette de cuisine du logiciel ou du système ;
  • la liberté 2 c’est pouvoir redistribuer des copies à tout le monde, je peux partager mon logiciel, légalement, je n’ai aucun problème à faire ça et même les développeurs vont être plutôt contents parce que ça va leur faire de la publicité ;
  • la liberté 3 c’est la liberté d’améliorer le programme, le logiciel et de le repartager avec peut-être des modifications, des améliorations que j’aurais apportées.

Évidemment quand je parle d’adapter, de regarder le code source, ça sous-entend que je comprends un petit peu les choses, donc il faut être développeur pour faire ça. Moi je ne suis pas développeur, par contre je peux m’appuyer justement sur la communauté des développeurs, toutes les personnes qui ont ces compétences techniques. Je préfère faire confiance à une communauté qu’à une entreprise privée qui va fonctionner comme une boîte noire et dans laquelle je ne vais pas pouvoir regarder ce qui se passe.

Voix off : C’est aujourd’hui l’entreprise privée qui vaut le plus cher au monde. Dans l’après-midi, Apple a vu son action grimper et franchir des sommets. L’entreprise est aujourd’hui valorisée en bourse à plus de 1000 milliards de dollars.

Adèle Frantzf : Est-ce que tu aurais des exemples de navigateurs qui seraient libres par rapport à un navigateur pas libre, des applications qui peuvent remplacer, en fait, les usages un peu plus marchands ?

Audric Gueidan : Un navigateur qui n’est pas libre en général c’est celui qui est installé par défaut dans ta machine. Si on prend l’exemple d’un ordinateur qui tourne sur Windows, eh bien le navigateur Microsoft Edge ou, avant, Internet Explorer, qui sont les deux navigateurs de Microsoft, ne sont pas des navigateurs libres. Par contre, le navigateur libre que tu vas pouvoir installer par la suite, c’est Mozilla Firefox1. C’est une communauté qui a développé Firefox, n’importe qui peut regarder le code source, peut vérifier que le logiciel fait bien ce qu’il dit qu’il fait – c’est le principe d’audit, je peux regarder ; il ne va pas être géré par une entreprise qui va monnayer toutes les informations. Mozilla est une fondation qui gère ça. Il y a une partie fondation avec de l’argent, il y a une partie plus bénévole et les deux fonctionnent bien ensemble.
La même chose sur ton téléphone portable. Par défaut, sur un téléphone Android – les téléphones Android c’est à peu près 80 % des téléphones quand même – tu as Google Chrome, qui appartient à Google, qui est installé dessus, qui n’est absolument pas libre et qui va récupérer un paquet de données sur tout ce que tu fais, tout ce que tu regardes sur Internet.

Adèle Frantzf : Pourquoi, quand on parle de surveillance de masse, la surveillance numérique est-elle la plus redoutée ? C’est quoi les enjeux dans un État capitaliste ? C’est quoi les enjeux dans un État totalitaire ? C’est quoi les dangers, finalement ?

Audric Gueidan : D’un point de vue de l’utilisateur il n’y a pas vraiment de dangers, en fait c’est juste une technologie, c’est un outil donc ça dépend comment on s’en sert. Je peux avoir un couteau de cuisine et couper les tomates avec ou je peux aller planter ma voisine, ce ne sera pas la faute de l’outil c’est ce que j’en fais. Internet c’est un peu pareil.
Je pense qu’Internet est un outil qui fait peur aux politiciens parce que ça permet aux citoyens, au peuple, de se rassembler, de communiquer, de se mettre d’accord ensemble et parfois de manière cachée, justement, et c’est en réfléchissant en dehors de la meute qu’on va pouvoir expérimenter et proposer de nouvelles choses. Donc pouvoir faire ça à l’abri des regards c’est quelque chose qui fait peur. C’est pour ça que depuis de nombreuses années, tous les gouvernements essayent de cadrer Internet, de fixer des règles, des lois, des limites. En France, par exemple, on essaye souvent de mettre le CSA [Conseil supérieur de l'audiovisuel] dans la boucle, le CSA qui contrôle la télévision, mais Internet ce n'est pas la télévision. La télévision c’est on s’assoit sur le canapé et on regarde un flux qui nous est envoyé. On peut choisir le flux, mais c’est tout.
Internet, on est actif, on participe à ce flux. Tout le monde peut être à la fois émetteur et récepteur, donc tout le monde peut parler. C’est vraiment la mise en application de ce qu’on appelle la liberté d’expression qui, avant, était plutôt relative. Certes, depuis de nombreuses années, on sait lire et écrire, sauf que tout le monde n’a pas la capacité de diffuser son texte, d’écrire un livre et de le faire lire aux autres. Même si dans les différents journaux auxquels je peux l'envoyer au courrier des lecteurs, eh bien si ce que je dis ne plaît pas, je peux être censuré. Alors que si je le fais sur Internet, je fais mon site, mon blog, je peux le partager et du coup n’importe qui peut avoir accès à mes informations. Et ça, ça fait peur.
Ce qui fait peur aussi c’est qu’à partir du moment où il y a une information sur Internet, globalement elle ne disparaît pas. Du coup, il est possible de déterrer une information, fausse ou vraie, mais une information et de mettre un personnage public, politique, face à ses contradictions. Il y a x mois cet homme politique a dit ça sur Twitter, aujourd’hui il dit l’inverse, eh bien hop !, je peux lui ressortir ça directement, sans filtre, et je lui mets devant les yeux « vous avez dit une connerie il y a quelques x mois ». On ne va pas l’oublier comme ça.
On nous balance souvent le prétexte du piratage, de la menace terroriste ou des sites pédopornographiques pour censurer un maximum de choses. On agite un mouchoir pour dire « attention il y a ça » et, en fait, on essaye de faire passer plein de lois liberticides.
Ce qui a essayé de se passer récemment avec la loi Avia, qui a d’ailleurs été censurée finalement, une loi qui avait pour objectif de censurer de manière plus au moins automatique les contenus en ligne qui étaient haineux. Ça part d’une bonne intention, évidemment qu’il faut faire disparaître la haine d’Internet, mais on ne peut pas se baser sur des algorithmes parce qu’il y a énormément de ce qu’on appelle des faux positifs. On ne peut pas non plus donner ce pouvoir-là aux grandes plateformes, aux fameux GAFAM, parce qu’il n’y a que ces plateformes-là qui techniquement pourraient le faire, c’est-à-dire Facebook, Twitter, Google, c’est à eux qu’on donne les clefs de la justice.

Adèle Frantzf : Il y a justement une émission de Cash Investigation qui a révélé les conditions de travail des employés de prestataires de Facebook ou de Google, je ne sais plus, censés nettoyer Internet, et qui se retrouvent, pour un salaire indécent, à trier toute la journée des vidéos toutes plus violentes les unes que les autres, des décapitations, des lacérations ou bien des vidéos à caractère pornographique. Là où c’est vrai que les sociétés de nettoyage à domicile veulent, et les clients aussi, que le travail des femmes et des hommes de ménage soit invisible, c’est vrai qu’on ne se pose jamais la question du nettoyage d’Internet. C’est aussi ça qui nous permet finalement de naviguer tranquillement sans être attaqués par des images ou des vidéos à caractère très violent.
Le problème, comme tu dis, c’est que c’est la plateforme qui fixe ses propres règles et, par exemple, c’est Facebook qui va censurer des images artistiques parce qu’on voit un sein donc c’est jugé à caractère pornographique. C’est aussi Facebook aussi qui, malgré la révolte de ses employés, décide de ne pas censurer les propos d’appel à la haine d’un certain Donald Trump.

Audric Gueidan : Sur Internet, le problème c’est qu’on ne peut pas laisser les grandes plateformes décider de ce qui est légal, de ce qui ne l’est pas. Il y a déjà des choses qui sont écrites dans la loi concernant les contenus haineux, il n’y avait pas besoin de la loi Avia. Pour les faire appliquer il faut juste mettre des moyens, c’est facile à dire, dans la justice.
On nous dit souvent qu’on est anonyme sur Internet. En fait c’est très facile techniquement de remonter à la trace, à la source et de savoir. Techniquement on peut repérer qui est l’utilisateur qui se cache sous un pseudo, qui a proféré des menaces de mort concernant quelqu’un sur Twitter, et cette personne aura des problèmes. En fait, tout cela existe déjà.

Adèle Frantzf : Alors c’est quoi les données personnelles ? Est-ce que tu peux nous expliquer un peu mieux pourquoi, en fait, ça vaut de l’or tout ça ?

Audric Gueidan : Une donnée c’est un élément qui va permettre de t’identifier toi soit directement soit par recoupement, par croisement d’informations.
Des données on va dire faciles à avoir c’est ton nom, ton prénom, peut-être ton pseudo, ton âge, ton sexe, ton adresse, d’ailleurs il y a une partie de ces données-là qui sont déjà publiques parce que tu existes aux yeux de l’État, aux yeux de la loi.
Ensuite il y a beaucoup de données qui vont être récupérées en fonction de que tu fais sur Internet, en fonction des articles que tu lis, combien de temps tu passes dessus, sur quels liens tu as cliqué, qu’est-ce que tu as partagé sur les réseaux, tout ça, ça va donner une espèce de fiche d’identité numérique de toi, de tes goûts, de ton orientation politique, sexuelle ou religieuse et tout ça, ça peut se monnayer.
C’est là où les grandes plateformes, les GAFAM – Google, Apple, Facebook, Amazon, Microsoft – s’en mettent plein les poches. D’un côté ça va permettre de t’envoyer de la publicité ciblée, vu qu’on sait qui tu es on peut vraiment t’envoyer quelque chose d’hyper-personnalisé. Je veux vendre un vélo, je vais déjà pouvoir regarder dans ma base de données l’âge des utilisateurs, on va dire que je veux quelqu’un qui a entre 30 et 40 ans, qui est sportif, qui habite à côté de Nanterre. Je peux cibler comme ça, envoyer ma publicité à ces personnes-là.

Adèle Frantzf : Concrètement, je prends l’exemple des chaussures allemandes Adidas. C’est un objet connecté, qui est assez pratique parce que, finalement, il donne des mesures sur l’activité physique, savoir si vous êtes en forme, ce que vous devez faire. En fait c’est quoi les avantages de ce truc ?

Audric Gueidan : Il y a des gens qui aiment bien savoir combien de kilomètres ils ont fait, quel était le parcours et partager tout ça aussi sur les réseaux.
Après, est-ce que j’ai envie que Adidas connaisse mon adresse, connaisse mon itinéraire préféré de footing ? On peut se dire « ouais ce n’est pas grave ! » Il y a une histoire assez rigolote. Il y a quelques mois des agents, j’ai envie des agents secrets, je ne sais plus exactement quel statut ils avaient, des personnes d’une agence du gouvernement américain avaient l’habitude de faire comme ça du footing autour de leur base. En fait, ils ont été identifiés comme ça. Peut-être qu’avec tes chaussures tu as, en plus, un bracelet connecté qui va prendre ton rythme cardiaque que ton assurance aimerait bien avoir. Si on se rend compte que « tiens, madame Machin a un problème cardiaque », du coup on va peut-être lui changer son tarif. Ça pose un autre problème.

Voix off : Découvrez la nouvelle brosse à dents électrique connectée Oral-B Smart Series et l’application Oral-B spécialement conçue pour des résultats de nettoyage optimaux. L’application est déjà en route pour vous guider en temps réel et vous aider à vous brosser les dents au moins deux minutes. Grâce au guide animé des quatre zones de votre bouche, vous pouvez être sûr d’avoir brossé de manière égale toutes les parties de votre bouche. Un indicateur de pression apparaît sur l’application lorsque votre brossage est trop vigoureux.
La page défilante, en bas de l’application, fait apparaître les actualités, la météo, des conseils pour la santé bucco-dentaire, des images de la nature, vos prochains rendez-vous sur votre calendrier et bien plus encore pendant votre brossage, tout en vous permettant de recevoir vos aides de brossage et le contrôle de la pression pour une expérience de brossage complet.

Adèle Frantzf : Fatigant, non ?

Voix off : Pourquoi ne pas prendre un petit moment pour vous-même avec l’application Petit Bouddha ? Détendez-vous. Reliez-vous directement aux pulsations de votre cœur. Nous savons que parler de réchauffement climatique ou de surveillance numérique et de tous ces sujets sensibles peut provoquer des montées de stress indéniables. Sachez que toute l’équipe de radio Agora est là pour vous. Respirez et détendez-vous. Bienvenue sur radio Agora.

Adèle Frantzf : Moi je sais que la publicité ciblée, par exemple, ça ne marche pas des masses sur moi, tu vois ! En fait, moi je vogue dans le cloud, tu sais, ce nuage tranquille et flou et du coup tout ça, cette surveillance de masse, ce n’est pas très réel en fait, ça reste dans mon ordinateur et j’ai toujours tendance à minimiser un peu l’impact des traceurs, des applis, des GAFAM, gnagnagna. Est-ce que pour toi, réellement, le virtuel a un réel impact, réel, sur la vie réelle ?

Audric Gueidan : Si je prends ton téléphone peut-être que dessus il y a l’application de ton parti politique, il y a peut-être une application de suivi de grossesse, une application médicale — je pense au suivi de diabète —, une appli de rencontre, toutes ces infos-là, pareil, ça permet déjà de te mettre dans une case. Est-ce que tu aurais envie que toutes ces infos soient marquées sur un panneau que tu trimballes toujours à côté de toi ? Est-ce que tu veux avoir marqué en gros pour qui tu votes, avec qui tu couches et ce que tu manges ? Je ne suis pas sûr.
Il y a une histoire qui est assez symptomatique de tout ça. Un site de rencontres adultères qui s’appelle Ashley Madison a été piraté il y a quelques années, ça doit faire trois/quatre ans, et la liste entière des utilisateurs s’est retrouvée sur Internet, comme ça, à la vue de tous.
Dans ce listing on retrouve des politiciens américains et également deux ou trois personnes qui sont, j’ai envie dire, dans la religion, je ne sais plus si ce sont des prêtres ou des pasteurs. Un certain nombre de personnes, du coup, se retrouvent affichées sur la place publique comme étant habituées d’un site de rencontres adultères. Il y en a plusieurs qui ont dit : « Non, ce n’est pas moi c’est faux », plusieurs qui ont avoué et il y en deux ou trois qui se sont suicidées. Donc oui, ça peut avoir un impact.

Adèle Frantzf : Moi, à part recevoir des amendes pour excès de vitesse, je ne fais de mal à personne et j’ai un peu rien à cacher !

Audric Gueidan : Peut-être que quelque chose que tu fais actuellement est légal, est normal, peut-être que dans quelques années ça ne sera plus le cas. Imaginons que je suis dans un système totalitaire, j’ai envie d’identifier et de faire disparaître tous mes opposants politiques, si je peux les identifier juste avec l’application du parti politique auquel ils ont adhéré ou le nombre de pages Facebook ou certains sujets qu’ils ont likés ou partagés, ça pose problème. Si on regarde aux États-Unis, Trump a pu identifier une partie de ses opposants via Facebook et via les caméras de surveillance qui étaient postées dans les rues pendant les manifestations. Si on regarde en Chine, si je commence à critiquer le gouvernement chinois je vais avoir des problèmes. C’est d’ailleurs ce qui se passe actuellement avec Hong-Kong. Toutes les personnes qui s’expriment en mal sur le sujet sont immédiatement arrêtées.

Adèle Frantzf : Durant le confinement on a fait un peu connaissance avec le logiciel Zoom qui vaut maintenant plus cher en bourse que les sept plus grosses compagnies aériennes mondiales réunies et qui est quand même accusé d’avoir fait fuiter les vidéos vers Facebook notamment. Il y a eu le petit robot chien jaune qui surveille les Singapouriens, il y a eu StopCovid.
Justement, si on revient au contexte international de la pandémie COVID-19, ça me fait penser à la théorie de Naomi Klein, La Stratégie du choc, qui soutient qu’à l’occasion de désastres, que ce soit des attentats, des catastrophes naturelles, des coups d’État, des changements de régime, les gouvernements en profiteraient pour imposer des réformes économiques ultralibérales et super restrictives au nom de la sécurité d’un pays. Est-ce que tu peux nous en dire plus sur la réaction des gouvernements face au choc de cette pandémie ?

Audric Gueidan : Tu l’as bien dit, à chaque fois qu’il y a un évènement important on en profite pour faire passer des lois ou des appareils de surveillance ; ça revient à ce que je disais tout à l’heure, en parlant notamment du prétexte du terrorisme.
On pense que la magie de la technologie va nous sauver, c’est ce qu’on appelle le techno-solutionnisme. On se dit qu’on va mettre en place une application, un appareil superbe qui va contrôler l’épidémie, gérer les personnes malades, peut-être en même temps identifier les manifestants.
En France, des drones ont été déployés par la police pour surveiller que les gens respectaient bien le confinement. Depuis, ces drones ont été considérés comme illégaux, ils n’ont plus le droit de voler, même si apparemment on en a vu certains pendant les manifestations. Bon ! Il y a des caméras de surveillance avec reconnaissance faciale qui ont été installées avec l’idée de savoir si tu portes ton masque ou pas alors que la CNIL [Commission nationale de l'informatique et des libertés] va dire « non il ne faut pas faire ça ». Certains maires se pensent au-dessus des lois !
Donc oui, on surveille, on flique, on file des amendes. Si on n’a pas notre papier pour sortir, pareil il y a eu un nombre important d’abus à ce niveau-là. On peut aller plus loin, d’ailleurs c’est ce qui s’est passé à Singapour. À Singapour ils avaient une application équivalente à StopCovid, sauf qu’ils se sont rendu compte que la population ne l’avait pas installée, ne s’en servait pas, exactement ce qui se passe en France d’ailleurs, du coup ils sont allés plus loin : quand tu rentres dans un bâtiment public tu dois scanner une espèce que QR Code qui à l’entrée avec ton téléphone, qui va t’identifier et qui va dire si tu es contaminé, contagieux et du coup qui va te permettre, ou pas ,de rentrer dans ce bâtiment.
On peut très bien imaginer ça en France en allant plus loin en disant que si tu n’as pas l’application StopCovid sur ton téléphone alors tu ne peux pas, je ne sais pas, rentrer dans la gare, tu ne peux pas aller faire tes courses.
Est-ce qu’on a envie d’aller vers ça ? Moi non.

Adèle Frantzf : Justement, qu’est-ce qui t’a choqué le plus ? Est-ce qu’il y a un évènement qui t’a vraiment choqué pendant cette période ?

Audric Gueidan : Le fait qu’en France on avance un peu avec des œillères, je pense notamment au chargé du numérique, Cédric O, qui a maintenu, qui y est allé à fond contre tous les avis des experts et des associations de défense des libertés individuelles en disant « on va faire notre application, on va faire un truc français. On ne veut pas s’appuyer sur ce qui existe, sur le protocole qui est utilisé par Apple et par Google, non, non, nous on va faire notre protocole à nous », qui ne fonctionne pas si bien que ça finalement.

Adèle Frantzf : Là tu parles de l’application StopCovid ?

Audric Gueidan : Oui, pour StopCovid. II y a un truc qui n’est pas logique : on dit « on veut du numérique souverain, du numérique français » et, en même temps, on voit par exemple que toutes les données de santé vont être hébergées par Microsoft. Bon ! On a envie de dire que ce n’est pas très logique !

Adèle Frantzf : Est-ce qu’il y a eu des choses bien pendant cette période ?

Audric Gueidan : Que la loi Avia ait été retoquée, je trouve ça bien.
En effet, que la police n’ait pas le droit normalement d’utiliser ses drones pour surveiller les gens je trouve également ça bien.
Je pense que ce qui est positif, par exemple, on va parler du télétravail : il y a beaucoup de personnes qui se sont rendu compte que oui, c’est possible de travailler à la maison et même souvent on travaille plus et mieux qu’en étant au boulot alors qu’il y avait beaucoup de patrons qui disaient « non, moi je ne veux pas que mes employés fassent du télétravail », ils avaient toutes les bonnes raisons. On voit que c’est possible. Il y a eu une espèce d’électrochoc en prouvant que le numérique ça peut aider, ça peut être bien ; même chose pour les jeux vidéos d’ailleurs. Il y a quelques mois l’OMS disait « attention, ça y est, le jeu vidéo est considéré comme une addiction » et en même temps, pendant le confinement, ils ont dit : « Oui, on avoue, les jeux vidéos permettent de calmer les enfants, c’est bien de jouer une à deux heures par jour ». Il y a, comme ça, plusieurs articles qui sont sortis, que j’ai trouvés intéressants.
On voit également qu’il y a un nombre important de personnes qui sont vraiment en grande difficulté face au numérique. On parle en moyenne de 20 % de la population qui n’est pas connectée ou qui a vraiment des difficultés.

Adèle Frantzf : C’est sûr qu’à 80 ans, à la vitesse où ça va, si je n’ai pas d’amis ou de la famille qui s’y connaît, je deviendrai incapable d’être à la page et on voit la Caf, la SNCF, qui ferment de plus en plus de guichets humains et l’État compte maintenant de plus en plus sur les associations qui sont en grande partie bénévoles pour rattraper le coup, en fait, et aider les personnes à apprivoiser le numérique. Finalement ces associations crient aussi au manque de moyens.

Audric Gueidan : Dans les associations je pense par exemple à Emmaüs Connect2 qui fait partie de Emmaüs, qui va être là pour former une partie de la population et accompagner les personnes qui sont en difficulté. Ça a été un petit peu accentué pendant le confinement et plusieurs initiatives ont été lancées pour essayer justement de pallier à ces différents manques que ça soit pour les étudiants, les écoliers qui se sont retrouvés à devoir travailler de chez eux ; que ça soit pour les indépendants ou les salariés qui, du jour au lendemain, doivent faire du télétravail alors qu’ils n’en ont jamais fait et ça ne se fait pas comme ça, ce n’est pas évident.

Adèle Frantzf : Aujourd’hui, est-ce que tu pourrais nous donner des noms d’associations, d’institutions étatiques, qui sont les garants de notre liberté numérique ? Qui est-ce qui se bat, en fait, pour que justement on ait plus accès au logiciel libre, qu’on puisse savoir un tout petit mieux comment nos données fuitent ? Vers qui se tourner en fait ?

Audric Gueidan : On peut imaginer qu’on pourrait se tourner vers notre pays qui est censé être garant de nos libertés. Pour moi c’est un petit peu compliqué de ce côté-là quand on parle de numérique parce que les États sont noyautés par les entreprises privées, on peut reparler de Microsoft qui est vraiment partout : en France, Microsoft est à la Défense, il est à la Culture, il est à l’Éducation, déjà ça pose un problème. Il y a ce qu’on appelle des back doors, on va dire que c’est la porte de derrière qui permet à l’entreprise d’aller voir discrètement ce que tu fais sur ta machine. Est-ce qu’il faut que les ordinateurs de l’armée française soient connectés en permanence aux serveurs de Microsoft qui est une entreprise américaine ? Je n’en suis pas certain.
Est-ce que j’ai envie que les collégiens, les étudiants soient formatés à utiliser des logiciels privés et payants : toute la suite office et compagnie est gratuite quand ils sont à l’école, mais lorsqu’ils sortent de l’école ils vont devoir acheter leurs logiciels — la première dose est gratuite et après c’est à vous de payer ! Je ne suis pas certain que ça soit une bonne chose, surtout quand il existe des associations ou des organismes qui vont se battre, qui vont prouver que c’est possible. Je pense notamment à Framasoft3 qui une association de promotion du logiciel libre qui met en place différents services. En 2013 ils avaient lancé la campagne « Dégooglisons Internet »4 pour prouver qu’on peut se passer de Google, on peut trouver des équivalents qui fonctionnent aussi bien et qui vont être éthiques, qui vont respecter notre vie privée, qui vont être libres, c’est-à-dire qu’après tout le monde peut les utiliser, les employer pour faire sa propre version. C’est d’ailleurs ce qui s’est passé : le Collectif des CHATONS5 a émergé de ça après, c’est le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Ça permet en plus de faire de l’Internet on va dire local : je peux aller dans l’association de ma ville, récupérer des services numériques, une boîte mail, un hébergement de fichiers, de la même manière que je serais allé à l’AMAP du coin récupérer mon panier de fruits et légumes et ma boîte d’œufs. En plus, là je sais qui s'en occupe, je peux discuter avec ces personnes-là, je peux m’investir et monter en compétences si j’ai envie, si j’ai le temps, je peux devenir acteur de ma vie numérique.

Adèle Frantzf : Finalement, c’est un peu la même chose que dans l’agriculture, c’est-à-dire qu’on veut surtout du local et on veut de l’éthique. On veut du Libre, du bio, quoi ?

Audric Gueidan : C’est ça, sauf que pour passer au bio il faut être un petit peu sensibilisé, il faut quand même se renseigner, ce n’est pas forcément évident comme transition parce qu’on ne va pas trouver exactement la même chose, peut-être pas au même prix, peut-être pas en même quantité.
C’est la même chose de passer à des outils libres, éthiques, open source. On va dire que c’est un travail de tous les jours parce que certains outils, à un moment donné, vont être très bien et puis hop !, l’organisation va se faire racheter et finalement c’est devenu moins bien, maintenant il y a des trackers dedans, donc il ne faut plus utiliser cette application. Il y a besoin de faire de la veille à de sujet-là, globalement les gens n’ont pas le temps de faire ça, donc les associations le font.
La Quadrature du Net6 fait du bon travail pour sensibiliser les gens à cette question-là et pour prouver que le numérique sort de la sphère de l’ordinateur et du smartphone, ça touche toute notre vie, toute notre vie est numérique maintenant.
Je pense à ce qu’on appelle les GULL qui sont les groupes d’utilisateurs Linux et logiciels libres. Pareil, on va en trouver un petit peu partout en France. Ce sont des groupes de bénévoles qui vont être là pour vous encadrer, vous apprendre à utiliser Linux [GNU/Linux], si vous voulez passer à Linux qui est le système d’exploitation libre, qui vont globalement essayer de vous former.
On peut aller dans ce qu’on appelle les Cafés vie privée. Ce sont des lieux de formation, ça peut se passer partout, ça peut être dans un café comme le nom l’indique ou dans un restaurant, dans une bibliothèque, où on veut, et là on va apprendre à utiliser des outils qui protègent nos données, on va comprendre comment laisser moins de traces.
On peut aller dans sa bibliothèque de quartier, il y a beaucoup de bibliothécaires qui sont sensibilisés à ces questions-là.
Donc il y a du monde qui est présent sur le terrain pour justement garantir qu’on respecte au maximum nos libertés numériques.
L’idée, toujours, c‘est de pouvoir reprendre la main sur la machine, sur l’outil, sur le logiciel, comprendre comment ça marche et pouvoir faire des choix éclairés.

Diverses voix off : La NSA a placé sous surveillance tous les portables du monde.
Les Américains ne rêvent pas d’être libres, ce qu’ils veulent c’est la sécurité.
Oui, sauf que malheureusement les gens ignorent qu’ils ont passé un marché.

Adèle Frantzf : Tu sais comme moi que certains réalisateurs de films d’horreur ou de thrillers disent souvent que la réalité est bien pire que la fiction. Pour toi, quels films se rapprocheraient le plus de la dystopie qui pourrait nous attendre si on ne fait pas gaffe ?

Audric Gueidan : Un film qui est bien, qui est d’ailleurs adapté d’un livre à la base, Minority Report. Ça se passe dans un monde futuriste où il y a une brigade d’intervention qui peut arrêter les personnes avant qu’elles aient commis un crime. C’est ce qu’on appelle du prédictif. Il y a déjà eu, en tout cas en Chine, des arrestations préventives grâce ou à cause, ça dépend dans quel sens on se place, de ce qu’on appelle le big data, de toutes ces données qui vont être récupérées, qui vont permettre à des algorithmes d’imaginer que potentiellement cette personne va commettre un crime, donc on l’arrête en amont.
Un autre film qui est intéressant, qui pourrait faire peur, c’est WALL-E. C’est tout mignon, c’est tout joli, mais quand on regarde ce que les humains sont finalement devenus dans WALL-E, ils sont complètement dépendants des machines, ils sont juste rivés à leur écran, ils ne sont même plus capables de marcher par eux-mêmes et de réfléchir, ils ne savent plus comment ça fonctionne.
Un algorithme ce n’est pas une invention magique, il y a quelqu’un à la base qui a fait des choix et qui a décidé que le logiciel pouvait faire ça ou ça. Lawrence Lessig7 dit Code is Law, « Le code c’est la loi » et en effet le robot, l’algorithme, la machine, va suivre ce qui a été écrit dans son code.
Après pour sortir du film, il y a une série qui est très bien, tous les épisodes ne se valent pas, c’est Black Mirror, il y a certains épisodes où, en fait, ce n’est même plus le futur, on est vraiment déjà dedans.

Voix off : Comment ça fonctionne ?
Cette puce va accéder à vos engrams, à vos souvenirs relatifs à l’évènement.
Je ne suis pas intéressée par ce que vous auriez pu faire dans votre chambre sur votre temps libre.
Ce qui est privé doit rester privé.

Audric Gueidan : Voilà ce que je peux un petit peu conseiller.

Adèle Frantzf : Nous arrivons à la fin de cette première émission numérique. Merci beaucoup à toi Audric.

Audric Gueidan : Merci à toi.

Adèle Frantzf : Ne dites plus Twitter, dites Mastodon8. Ne dites plus YouTube, dites PeerTube9. Instagram devient PixelFed10, Zoom devient Jitsi11. Gmail devient Mailo12 ou Disroot et Google docs devient Framapad13. Ça, c’est la classe !
Reprenez la main sur la machine, le trafic, le contenu.
À Nanterre il y a l’Electrolab, il y a Nanterre Digital. Il y a Évelyne Jardin qui donne des formations à l’Agora. Il y a Lien intergénération 92, il y a La Ligue de l’enseignement qui avait diffusé notamment, je me souviens, un docu très facile à visionner, qu’on va mettre en lien sur le site de l’Agora, Nothing to Hide, « Rien à cacher », et il y a le Centre social Arc-en-ciel très actif notamment sur le festival Nanterre Digital.
À Rueil, il y a Rueil Digital et le Chaton le plus proche est à Courbevoie, il s’appelle Tedomum.
Enfin il y a la FFDN14, la Fédération des Fournisseurs d'Accès à Internet associatifs.
Évidemment la liste n’est pas exhaustive. Si vous voulez partager votre expérience aux Rencontres numériques nantériennes n’hésitez pas à laisser un commentaire sur radioagora-nanterre.fr.
J’en profite pour remercier toute l’équipe de radio Agora de cette opportunité qui nous est faite de nous exprimer librement. Bisous les Nantériens.Prochaine émission le mois prochain.

Décryptualité du 21 septembre 2020 - Health data hub, les données de santé des français hébergée par MS

APRIL - mar, 09/22/2020 - 01:25

Écouter ou télécharger le Décryptualité du 21 septembre 2020 (15 minutes)

Cette semaine, on parle de la contestation autour de Helath Data Hub, la plateforme des données de santé des français hébergée sur le Cloud Microsoft.

Decryptualité sur Mastodon

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Musique de l'indicatif : Sebkha-Chott - CRPTS ND TPSTRZ - KHOLIK NEFAEHRTITIK

Revue de presse de l'April pour la semaine 38 de l'année 2020

APRIL - lun, 09/21/2020 - 22:08

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Clubic.com] GNU/Linux: 10 distributions incontournables pour bien débuter

✍ Johan Gautreau, le dimanche 20 septembre 2020.

Windows 10 et macOS sont actuellement les systèmes d’exploitation pour ordinateur les plus répandus sur le marché grand public. GNU/Linux, fortement représenté dans le domaine professionnel jouit de son côté d’une très mauvaise image auprès des foules. Une mauvaise réputation qui n’a plus lieu d'être de nos jours tant les distributions se sont simplifiées et ouvertes pour séduire le grand public. Nous avons sélectionné pour vous 10 systèmes GNU/Linux à essayer d’urgence pour sauter le pas en toute sérénité!

[Journal du Net] Intelligence artificielle: restez open!

✍ Christophe Boitiaux, le vendredi 18 septembre 2020.

Aujourd’hui dans 90% des cas, le cloud public classique est suffisant pour gérer le volume de data nécessaire au machine learning. Mais demain, il est fort probable qu’on ne puisse se passer de l’informatique quantique.

[Numerama] Mozilla renonce à l'envoi de fichiers et aux mémos synchronisés en fermant Send et Notes

✍ Julien Lausson, le vendredi 18 septembre 2020.

L’outil de partage de fichiers Firefox Send ne sera pas relancé. Quant au service Notes, qui permet de prendre des mémos et de les synchroniser entre plusieurs appareils, il sera désactivé en novembre.

Et aussi: [ZDNet France] Le Health Data Hub de nouveau attaqué devant le Conseil d'Etat

✍ Clarisse Treilles, le jeudi 17 septembre 2020.

Un collectif a déposé un recours en urgence au Conseil d’Etat, qui avait déjà été appelé à trancher une première fois sur le sujet. Les requérants espèrent cette fois-ci faire peser l’invalidité du Privacy Shield.

[cio-online.com] Le Ministère de l'Education Nationale tente de justifier son choix de Microsoft

Le mercredi 16 septembre 2020.

Après l’article dans Le Canard Enchaîné et la plainte du CNLL, le Ministère de l’Education Nationale a transmis ses arguments en faveur de Microsoft.

Et aussi: [EurActiv] La directive sur le droit d'auteur fait des remous au sein du navire européen

Le mardi 15 septembre 2020.

Plusieurs sociétés civiles européennes ont écrit une lettre à Thierry Breton, commissaire européen au marché intérieur, mettant en lumière de «profondes inquiétudes» liées au document d’orientations de la Commission européenne sur la directive relative au droit d’auteur.

Et aussi: [Le Monde.fr] La justice européenne consacre «la neutralité du Net» dans l'UE

Le mardi 15 septembre 2020.

L’arrêt de la Cour de justice de l’Union européenne consacre mardi le principe d’égalité de traitement et d’accès des contenus en ligne.

Et aussi: [La gazette.fr] La vague des communs arrive

✍ Delphine Gerbeau, le mardi 15 septembre 2020.

Notion très ancienne, les communs connaissent depuis quelques années un regain d’intérêt, à l’heure de la recherche d'économies et d’autres façons de mener les politiques publiques. Plusieurs pays européens sont bien en avance sur le sujet, en France quelques collectivités tentent de donner forme à cette gestion “en commun”.

[Association mode d'emploi] Les Chatons concurrencent les Gafam

✍ Laurent Costy, Angie Gaudion, le mardi 15 septembre 2020.

Après une phase importante de déploiement d’outils numériques par les associations (1), on assiste à une rationalisation et à un intérêt marqué pour les logiciels libres. Ceux-ci permettent aujourd’hui de répondre aux principaux besoins des acteurs associatifs. Des besoins renforcés depuis la crise sanitaire du Covid-19 qui obligent à repenser nos modes de fonctionnement. Le collectif Chatons les aide à les découvrir et les adopter.

Bilan des vacances ! Décryptualité du 14 septembre 2020

APRIL - lun, 09/21/2020 - 16:10


Titre : Décryptualité du 14 septembre 2020 - Bilan des vacances !
Intervenants : Manu - Luc
Lieu : April - Studio d'enregistrement
Date : 20 septembre 2020
Durée : 12 min
Écouter ou enregistrer le podcast
Revue de presse pour la semaine 37 de l'année 2020
Licence de la transcription : Verbatim
Illustration : Solved Puzzle - Licence Creative Commons CC01.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Rentrée tardive pour Décryptualité, l'occasion de faire un petit bilan de ce qui s'est passé pendant l'été et de se demander si nous sommes condamnés à nous répéter encore et toujours.

Transcription

Luc : Semaine 37. Salut Manu.

Manu : Salut Luc.

Luc : C’est la rentrée !

Manu : Eh oui ! On n’a pas Nicolas ni Nolwenn qui seront avec nous au cas par cas, au fur et à mesure de l’année. Donc on reprend, mais on n’a pas peur un peu de se répéter parce que j’ai l’impression qu’il n’est pas arrivé grand-chose, là quand même !

Luc : C’est toujours la même chose. C’est ce que nous dit une certaine personne que nous ne nommerons pas, en disant qu’on se répète, c’est toujours la même chose.

Manu : Les mêmes arguments…

Luc : Et le même genre d’évènements. Déjà sur la revue de presse, qu’est-ce qu’on a ?

Manu : On a cinq articles. Cinq sujets. Ça n’a pas été facile toutes les semaines pendant l’été, c’était un petit peu calme, mais là ça repart.

Luc : Le Point, « Alice Zeniter : « J’interroge les différentes possibilités de l'engagement » », un entretien mené par la rédaction, on n’a pas de nom.

Manu : Alice Zeniter est une auteure qui vient d’écrire un roman, Comme un empire dans un empire, et dedans, d’après ce qu’elle en dit, ça discute un petit peu économie, économie alternative, logiciel libre, partage du savoir de manière générale. C’est intéressant, donc elle a des héros qui sont positionnés sur une échelle politique avec des discours d’actualité de notre point de vue, mais novateurs dans les romans. Je ne crois pas qu’on voie souvent cela. Il faudra qu’en en discute avec Magali qui est libraire et qui est assez contente de voir apparaître ce genre de sujet.

Luc : ZDNet France, « Éducation nationale : voici pourquoi Microsoft est une drogue dure », un article de Louis Adam, une tribune même.

Manu : Oui, qui tape dur ! Parce que de la drogue c’est bien un sujet qu’on a déjà abordé, mais ça fait quand même toujours bizarre de voir ressortir ce genre d’approche. Effectivement, oui, le logiciel privateur c’est une drogue parce qu’on s’y habitue et on ne peut plus en décrocher après. Il semblerait, en tout cas, pour l’Éducation nationale.

Luc : Souvent ça fait partie de la stratégie de se rendre indispensable.
ouest-france.fr, « Arthur Le Vaillant : « On ne doit pas être des sportifs comme les autres » », une interview de la rédaction également.

Manu : Ça ne parle pas beaucoup de logiciel libre, c’est vrai, c’est un petit peu restreint, mais quand même ! Les gars innovent dans la voile et quand ils innovent, eh bien ils vont le faire de manière ouverte, sur le modèle du logiciel libre. Ça me fait plaisir de voir ça et j’aime bien le mettre en avant.

Luc : ZDNet France, « L'Inria veut faciliter l'accès aux technologies numériques open source », un article de Clarisse Treilles.

Manu : Exactement c’est l’Inria Academy, avec un « y » à la fin. Ils veulent former des gens, dans les entreprises surtout, avec l’idée du logiciel open source et certains logiciels open source. Ça a été repris dans pas mal d’endroits et je suppose qu’on en reparlera parce que l’Inria est une institution importante et qu’il fasse ça pour les entreprises…

Luc : Qui fait de la recherche dans le domaine de l'informatique.

Manu : Globalement et là c’est un gros truc. Ça fait plaisir.

Luc : Le Monde Informatique, « La Chine bannit Scratch, le langage d'apprentissage à la programmation », un article de Jacques Cheminat.

Manu : Ce ne sera pas le premier qui aura droit à ce traitement-là. C’est une censure, rien de moins. Il y a aussi Notepad++ qui s’est fait jarreter.

Luc : Un logiciel pour éditer du code, pour les gens qui ne connaissent pas.

Manu : Plutôt pour les développeurs. Il y a peut-être un point commun. Là c’est de la programmation aussi.

Luc : Ils se sont fait dégager sur quels critères ?

Manu : Parce qu’ils revendiquaient de la liberté, notamment pour les Ouïghours, et puis je crois que l’auteur de Notepad++ est d’origine asiatique.

Luc : Effectivement je me souviens, il y a des années de ça à l’époque de Sarkozy, Sarkozy avait dit des trucs qui ne lui avaient pas plu du tout et il avait ajouté des commentaires.

Manu : Une release notes.

Luc : Une release notes ou quelque chose comme ça. Les gens l’avaient critiqué, il avait dit « si vous n’êtes pas contents allez voir ailleurs ! » Mais quelle arrogance, quand même, de critiquer la politique de la Chine !

Manu : Oui, mais il n’est pas payé pour faire ce qu’il fait et il a bien le droit de s’exprimer même si c’est dans un milieu qui est un peu inhabituel. Après tout c’est un développeur, il utilise son lieu d’expression qui est son code, de manière générale.

Luc : De quoi on parle aujourd’hui, du coup, pour cette rentrée ?

Manu : On fait un petit recap sur l’été. Est-ce qu’il est arrivé des choses intéressantes cet été, voyons.

Luc : Pour voir si c’est effectivement toujours la même chose comme on disait en introduction, qu’est-ce que tu as retenu de cet été ?

Manu : Il y a des soucis avec Firefox, ils ont viré du monde et ça fait mal au cœur.

Luc : Un quart de leurs effectifs, 250 personnes, ce qui veut dire qu’il y a quand même beaucoup de gens à la Fondation Mozilla1. Ils ont beaucoup d’argent puisqu’ils avaient un accord avec Google pour mettre son moteur en avant et ils touchaient des millions pour ça.

Manu : Des centaines de millions.

Luc : Des centaines de millions. D’une part, au fil des années, Firefox s’est retrouvé en position minoritaire, donc Google n’a plus vraiment besoin d’eux. Avec la covid, le marché de la pub, tout ça, tout est un peu en train de se casser la gueule, donc ils ont décidé de lâcher du lest.

Manu : Licenciement de 250 personnes. Petit détail, mais qui fait toujours mal au cœur, elle est payée combien… ?

Luc : C’est un des trucs qui fait débat. Mitchell Baker, la personne responsable de la Fondation Mozilla, touche deux millions et demi de dollars par an. Pas mal de gens ont critiqué ça, ça ne couvre pas le salaire de 250 personnes, de 250 développeurs en tout cas si ce sont des développeurs, mais ça pose quand même la question de ce modèle de financement.
Je suis tenté de faire le parallèle avec Blender2, le logiciel de 3D, ce n’est pas du tout le même domaine, qui a complètement explosé, qui est maintenant une référence, qui a envahi le monde professionnel et qui est en train de grimper à toute vitesse. Il y a quelqu’un derrière ça, un Hollandais qui s’appelle Ton Roosendaal, et qui a toujours dit « oui, j’aurais peut-être pu devenir riche mais ça ne m’intéresse pas. Je préfère faire un beau logiciel, faire plaisir à des tas de gens et faire avancer quelque chose ». On n’a pas nécessairement besoin d’avoir quelqu’un qui touche des millions. On a plein de grands patrons, en Allemagne ou dans les pays nordiques, qui ne sont pas aussi bien payés que plein d’autres grands patrons. Mitchell Baker dit : « Sur le marché, dans une boîte normale, je toucherais beaucoup plus ».
Ça pose cette question du coup : est-ce que le marché justifie tout ? Et si maintenant ça doit être financé par la communauté, par les utilisateurs, est-ce que les utilisateurs ont envie de payer très grassement quelqu’un à la tête de ce truc-là ? En plus de ça les résultats ne sont pas faramineux, peut-être que le contexte ne l’est pas, en tout cas le mauvais résultat est là. Firefox est plutôt en mauvaise posture.

Manu : Petit détail, nous ne sommes pas les clients de Mozilla, nous ne payons pas Mozilla pour développer. C’est Google, de fait, et puis d’autres entreprises, d’autres sponsors qui le font. Donc ça reste compliqué comme débat.

Luc : En tout cas, si ça démontre une chose c’est que ce n’est peut-être pas une bonne idée d’être dépendant des GAFAM et que, à la fin, eh bien… on se fait avoir !

Manu : Petite remarque, quelque chose de positif, Facebook rejoint la fondation Linux3. Oui ! Ça fait plaisir !

Luc : Bien sûr !

Manu : Bon ! Ça fait bizarre, mais ils ne seront pas les premiers à tremper leurs pieds dans le monde du logiciel libre. Rappelons que Microsoft intègre un noyau Linux dans son système d’exploitation et qu’il travaille avec plein de logiciels libres.

Luc : Il y a plein de très grosses de boîtes de l’informatique qui font du Libre depuis longtemps. On aime bien le rappeler de temps en temps, tous les GAFAM qu’on aime critiquer peuvent exister grâce à du logiciel libre. Enfin tous ! Presque tous ! Mais Google, Amazon, n’existeraient pas s’il fallait qu’ils payent une licence pour chaque base de données et pour chaque système d’exploitation de serveurs qu’ils déploient. Et, en plus de ça, s’ils n’ont pas le droit de mettre les doigts dedans alors qu’ils font des trucs compliqués, je pense qu’ils ne s’en sortiraient pas. Ça n’aurait jamais pu exister.
Une chose que je dis de temps en temps quand je fais des conférences, j’aime bien dire « le logiciel libre c’est le logiciel qui est trop bien pour vous, parce que toutes ces grosses boîtes qui offrent des services aux gens – enfin les offrent, les vendent ! – directement ou indirectement, elles ont bien compris l’intérêt d’utiliser du logiciel libre et elles en profitent, mais n’en font pas profiter les utilisateurs. »
Donc bonne nouvelle sur Facebook, mais ils ont quand même brillé d’une lumière un peu plus sombre pendant l’été, l’Inde notamment accuse Facebook de mettre en péril sa démocratie ; ça c’était début septembre.
Un ingénieur qui a claqué la porte de Facebook en disant que Facebook faisait de la thune sur la haine et, en gros, ils font du profit sur la haine .
Il y a eu aussi ce rapport russe qui a fuité et qui révèle que le gouvernement de la Grande-Bretagne était incapable d’identifier les interférences du Kremlin dans le référendum pour le Brexit, ce qui démontre, si la source est fiable, que oui, les Russes ont effectivement bien fait le nécessaire.

Manu : Avec justement les informations qui avaient été transmises par Facebook à Cambridge Analytica4.

Luc : À Cambridge Analytica et à peu près à n’importe qui qui en voulait. Il y a deux ans, toutes les semaines on disait « ils ont filé tant de millions de données à untel et puis à untel, untel ». En fait, ils ont donné les données personnelles des gens à n’importe qui.

Manu : On fait confiance à Boris Johnson qui va relever le défi et s’attaquer au sujet, sûrement !

Luc : Oui ! Une chose que j’avais lue c’est que, à priori, il était très motivé pour que l’enquête n’aboutisse pas.
Donc Facebook rentre dans la Fondation Linux, mais ils ne nous ont pas déçus, on a quand même un petit goût de déjà-vu.

Manu : Oui. On peut s’attendre à ce que ça continue dans l’année. En plus, avec les élections qui arrivent, sûrement que le sujet va revenir sur la table. On rappelle qu’il y a eu pas mal de débats sur les tweets du président des États-Unis qui ont été annotés sur Twitter et sur Facebook. Mais ça fait débat parce que la liberté de discussion, la liberté de parole, c’est un sujet très important, notamment aux États-Unis, mais quand c’est Donald Trump qui parle, des fois on a envie que ce ne soit pas trop diffusé.

Luc : Quoi d’autre ?

Manu : Apple.

Luc : Oui Apple a banni Fortnite.

Manu : Fortnite, c’est quoi ?

Luc : C’est un jeu vidéo qui marche super bien, notamment chez les gamins.

Manu : Ils gagnent des millions en plus, je crois qu’ils sont entrés en bourse. Ça fait fureur.

Luc : Apple a dit : « Vous ne payez pas ce que vous nous devez », donc ils les ont juste dégagés en disant « vous n’existez plus chez nous ».

Manu : Exactement il y avait eu un problème avec le d’Apple où il fallait que 30 % des revenus de la plateforme soient payés et eux ont refusé si j’ai bien compris.

Luc : C’est ça, eh bien ils se sont fait dégager et Apple s’est également tournée, dans la même période, vers WordPress qui offre des services pour que les gens puissent ne pas installer WordPress qui est du logiciel libre, mais avoir le service directement. Mais là ils n’ont pas réussi.
On a également appris pendant l’été que Apple reporte tout le coût de la taxe GAFAM, un truc européen pour essayer de récupérer de l’argent chez ces gens qui payent très peu d’impôts, sur les développeurs qui font des applis dans le monde iOS. Donc pour Apple ça va, les bénéfices sont toujours là, et ce sont ses fournisseurs qui raquent à sa place.

Manu : Rappelons, petit détail, que pendant le confinement et toute cette période qu’on a vécue, eh bien les GAFAM se sont encore plus développés et ont enrichi encore plus les milliardaires qui sont à leur tête. Jeff Bezos nous remercie parce qu’on a contribué à son empire financier.

Luc : Amazon prend des proportions complètement folles. Pendant des années je pense qu’Amazon était un peu sous-estimée dans les GAFAM parce qu’on a dit « ils vendent des livres, ils vendent des trucs ».

Manu : C’est sous le radar de la vie privée, sous le radar des logiciels privateurs/logiciels libres, en tout cas moindre que les autres GAFAM.

Luc : En tout cas ils ont été accusés pendant l’été d’utiliser leur position pour, en gros, tirer profit de leurs vendeurs tiers, puisque, évidemment, chez Amazon il y a plein de boîtes qui utilisent Amazon pour vendre leurs produits. Ce qu’ils feraient c’est surveiller les produits innovants qui fonctionnent et dès ils en repèrent un ils mettent leurs boîtes sur le coup et ensuite ils prennent la place de l’autre, ils vont mettre en arrière plan le vendeur tiers et vendre ses produits à sa place. Il paraîtrait même qu’ils vont voir des boîtes qui ont des produits innovants et ils leur disent « eh vous faites un truc super, voilà un million, deux millions, rentrez au capital, mais donnez-nous plus d’infos pour savoir si on fait un bon investissement ». Évidemment les boîtes s’empressent de les donner. Et même topo, Amazon file ça à ses emprises et, dans la foulée, il y a un concurrent qui arrive et la boîte innovante dégage. Donc on voit qu’être sous l’emprise d’un GAFAM, il y a les données personnelles, mais également, dans le domaine économique, ce n’est pas loyal.

Manu : Mauvaise nouvelle, qui fait mal au cœur, la mort d’un philosophe.

Luc : Bernard Stiegler, effectivement.

Manu : Qu’on a régulièrement référencé dans la revue de presse.

Luc : Ça faisait longtemps qu’on n’en avait pas parlé. C’était un philosophe qui était très abordable dans ses explications, alors que certains sont très nébuleux. Malheureusement il est mort cet été, mais ses conférences sont toujours accessibles. Il s’intéressait notamment, entre autres choses, au logiciel libre, il avait même fait des conférences, des tables rondes, des évènements là-dessus. Occasion d’aller voir ses conférences et d’écouter ce qu’il racontait. C’est quand même assez intéressant.

Manu : Sur ce je te dis à la semaine prochaine.

Luc : On n’a pas répondu à la question du début : est-ce que c’est toujours la même chose ou pas ?

Manu : Moi je pense que ça s’améliore.

Luc : Oui. Moi je pense quand même que ça empire.

Manu : On verra la semaine prochaine !

Libre à vous ! Radio Cause Commune - Transcription de l'émission du 15 septembre 2020

APRIL - lun, 09/21/2020 - 13:53


Titre : Émission Libre à vous ! diffusée mardi 15 septembre 2020 sur radio Cause Commune
Intervenant·e·s : Éric Fraudain - Sylvie Boldo - Fabien Tarissan - Véronique Bonnet - Frédéric Couchet - Étienne Gonnu à la régie
Lieu : Radio Cause Commune
Date : 15 septembre 2020
Durée : 1 h 30 min
Écouter ou enregistrer le podcast
Page des références utiles concernant cette émission
Licence de la transcription : Verbatim
Illustration : Bannière de l'émission Libre à vous ! de Antoine Bardelli, disponible selon les termes de, au moins, une des licences suivantes : licence CC BY-SA 2.0 FR ou supérieure ; licence Art Libre 1.3 ou supérieure et General Free Documentation License V1.3 ou supérieure. Logo de la radio Cause Commune utilisé avec l'accord de Olivier Grieco.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

toc_collapse=0; Sommaire 
  1. Première chronique musicale de Éric Fraudain du site Au Bout Du Fil
  2. Qu’est-ce que l’informatique ? avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Le Pommier, 2019
  3. Chronique « Partager est bon » de Véronique Bonnet, professeure de philosophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman « Mettre en application les critères du logiciel libre »
  4. Annonces

Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Frédéric Couchet : Bonjour à toutes. Bonjour à tous.
L’informatique c’est quoi ? Ce sera le sujet principal de l’émission du jour avec au programme la première chronique musicale d’Éric Fraudain, également la chronique de Véronique Bonnet sur la mise en application des critères du logiciel libre.
Nous allons parler de tout cela dans l’émission du jour.

Vous êtes sur la radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.

Soyez les bienvenus pour cette nouvelle édition de Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.

Le site web de l’April c’est april.org, vous pouvez y trouver une page consacrée à cette émission avec les liens et références utiles, les détails sur les pauses musicales et également tous les moyens de nous contacter.

Nous sommes mardi 15 septembre 2020, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.

Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio. Pour cela rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous sur le salon dédié à l’émission.

À la réalisation de l’émission aujourd’hui mon collègue Étienne Gonnu. Bonjour Étienne.

Frédéric Couchet : Salut Fred.

Frédéric Couchet : Nous vous souhaitons une excellente écoute.

Pour commencer on va vous proposer un petit quiz, ça faisait longtemps, on va poser une petite question et je fournirai la réponse au cours de l’émission sauf si vous la donnez avant. Lors de l’émission de la semaine dernière, mardi 8 septembre 2020, il y a eu la première chronique d’une association qui agit notamment pour l’appropriation de l’informatique par toutes et tous et dont les locaux sont situés à côté du studio de la radio dans le 18e arrondissement de Paris. Quel est le nom de cette association ? Vous pouvez évidemment répondre sur le salon web de la radio ou sur les différents réseaux sociaux, sinon je vous donnerai la réponse en cours d’émission.

Tout de suite place au premier sujet.

[Virgule musicale]

Première chronique musicale de Éric Fraudain du site Au Bout Du Fil

Frédéric Couchet : Nous allons commencer par la première chronique musicale d'Éric Fraudain. Nous avons en effet le plaisir d’accueillir dans l'équipe des chroniqueurs Éric Fraudain du site Au Bout Du Fil, au boutdufil.com. Éric propose une sélection de musiques libres dans tous les styles musicaux. Il va nous faire une chronique musicale mensuelle, la première va avoir lieu aujourd'hui. Éric va également nous aider pour la programmation musicale en nous sélectionnant pour chaque émission des pépites musicales libres. Bonjour Éric.

Éric Fraudain : Bonjour à tous, très heureux d'être parmi vous.

Frédéric Couchet : C'est super, on est ravis. Je crois qu'aujourd'hui tu veux nous parler d'un artiste qui s'appelle Cloudkicker.

[Éric Fraudain corrige la prononciation de Cloudkicker]

Frédéric Couchet : Tu apprendras que mon anglais est particulier. Je te laisse la parole sur Cloudkicker.

Éric Fraudain : Tout d’abord je suis heureux de pouvoir partager avec vous mes préférences musicales, évidemment sous licence Creative Commons Attribution. Aujourd'hui, je vous emmène à Columbus, dans l'Ohio, à la découverte d'un artiste américain, qui s'appelle Cloudkicker, qui assume sa différence et son goût pour l'expérimentation.
Derrière Cloudkicker se cache un musicien, vous vous en doutez, qui s'appelle Ben Sharp et qui produit sous Cloudkicker depuis 2007 maintenant des albums sous licence Creative Commons, essentiellement Creative Commons Attribution. Je ne sais pas pourquoi mais sur son dernier album il s'est mis à publier sous licence Creative Commons By-NC-SA, où il interdit l'utilisation commerciale de sa musique, c'est pour la petite histoire.
Aujourd'hui je vous propose d'écouter un titre qui s’appelle Night qui est le premier titre de son album Unending qui est paru le 15 août 2019, et comme pour ses précédents opus, Ben Sharp a pris la main sur la réalisation tout entière de son album que ce soit l'écriture, la composition, l'enregistrement, le mixage et le mastering.
Je vous propose d'écouter ce titre et on revient juste après pour la review.

Éric Fraudain : Cause Commune 93.1.

[Diffusion de Night de Cloudkicker]

Éric Fraudain : Vous venez d’écouter Night sous licence Creative Commons Attribution de Cloudkicker.
La musique de Cloudkicker est, comme son nom d’artiste, onirique mais rebelle, aérienne mais un peu folle. Elle suit ses propres règles, loin des conventions, et refuse de se ranger dans une case, preuve que son nom, Cloudkicker, n’a pas été choisi au hasard, en français on pourrait traduire par « le botteur de nuage ».
Vous l’avez entendu, Ben Sharp est un multi-instrumentaliste avec une spécialisation à la guitare. Il est indépendant et il a tout appris par lui-même. Do it yourself. Il possède malgré tout une certaine notoriété depuis plusieurs années et ce sans travailler son marketing, uniquement grâce à son talent. C’est vraiment remarquable, surtout à notre époque. Pour la petite histoire, il possède même une référence sur Wikipédia anglais où il a sa propre page.
Si on voulait s’amuser à catégoriser sa musique – parfois il est nécessaire de la ranger dans un style – on pourrait tout simplement la cataloguer en musique instrumentale post-rock ou post-métal.
Je dois vous avouer que la musique que vous venez d’entendre, Night, ne reflète pas complètement la musique de Ben Sharp, puisqu’il est quand même très orienté vers un style métal, post-métal instrumental. J’ai essayé de vous faire écouter une musique qui permet plutôt d’avoir une approche générale à la liste de sa musique. Si vous aimez son style je vous encourage vraiment à aller bien plus loin et à écouter ses compositions sur Bandcamp essentiellement. D’ailleurs toutes ses musiques sont téléchargeables sur Bandcamp gratuitement et, bien sûr, vous pouvez contribuer financièrement à hauteur de ce que vous souhaitez.

Ben Sharp est donc un musicien passionné, qui crie haut et fort son envie de produire continuellement de nouveaux sons, sortant ainsi des sentiers battus. Night est un morceau mélancolique qui ouvre l’album Unending en douceur, invitant l’auditeur à se concentrer sur lui-même, sur ses propres rêves et ses pensées intérieures.
Sa particularité se situe dans les détails. Il travaille énormément les effets à la guitare. J’ai pu noter un travail sur un effet qui est le chorus voire de la reverb. J’ai un doute, mais je pense qu’il doit utiliser un bottleneck pour produire cet effet à la guitare, glissant entre deux notes ; je ne suis pas sûr de moi mais je pense qu’il doit utiliser ce genre d’outil. Le bottleneck, pour ceux qui ne connaissent pas, c’est comme un tube de verre ou de métal que le guitariste place sur son doigt, qui fait le lien entre eux accords. D’habitude on voit plutôt cette technique sur les musiques spécifiques au blues notamment. Là on voit bien que Ben Sharp a essayé d’emprunter cet instrument dans propre univers.
Il faut noter aussi que le mixage est une partie intégrante dans sa composition et il peut passer plusieurs mois à travailler son mixage. C’est presque devenu obsessionnel chez lui.

Pour résumer, pour conclure, Cloudkicker met un point d’honneur à se renouveler d’un album à l’autre. Il aime expérimenter, explorer de nouveaux sons, créer de l’inédit. Chacun de ses albums est donc différent du précédent.

J’en ai terminé. Je tiens juste à rappeler que sa musique, Night, est disponible sous licence Creative Commons By, Attribution.
Frédéric c’est à toi.

Frédéric Couchet : Merci. On va juste rappeler que la licence Creative Attribution signifie simplement qu’on est libre d’utiliser la musique de Cloudkicker à condition unique de le citer, c’est-à-dire que vous pouvez la modifier, vous pouvez la réutiliser même pour des besoins commerciaux. C’est une des nombreuses licences libres qui existent.
Je précise que Éric nous a concocté un choix d’autres titres de Cloudkicker pour cette émission. Chacune des pauses musicales aujourd’hui sera consacrée à l’artiste Cloudkicker.
Je remercie Éric Fraudain du site auboutdufil.com qui va nous faire une chronique musicale mensuelle et qui s’occupe de la programmation de Libre à vous !
Éric on se retrouve le mois prochain.

Éric Fraudain : Pas de souci. Merci à tous. Bonne émission.

Frédéric Couchet : Bonne journée. À bientôt.
On va passer à une pause musicale

[Virgule musicale]

Frédéric Couchet : La pause musicale c’est à nouveau, évidemment, Cloudkicker. On va écouter Intro to Woum par Cloudkicker. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Cause Commune 93.1.

Pause musicale : Intro to Woum par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter Intro to Woum par Cloudkicker, disponible sous licence libre Creative Commons Attribution, c’est-à-dire partage à condition d’attribuer la source de la musique à l’artiste. Ce choix musical est de Éric Fraudain de auboutdufil.com. Vous retrouverez les références sur le site de l’April, april.com, et sur le site de la radio, causecommune.fm

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.
Nous allons passer au sujet principal.

[Virgule musicale]

Qu’est-ce que l’informatique ? avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Le Pommier, 2019

Frédéric Couchet : Nous allons poursuivre par notre sujet principal qui va porter sur le thème « c’est quoi l’informatique ? », large question !, avec Sylvie Boldo directrice de recherche à l’Inria et Fabien Tarissan chargé de recherche en informatique au CNRS et auteur de l'ouvrage Au cœur des réseaux. Des sciences aux citoyens, Éditions Le Pommier en 2019.
Normalement Sylvie et Fabien sont en connexion téléphonique avec nous, on va vérifier. Est-ce que vous êtes là ?

Fabien Tarissan : Tout à fait. Bonjour.

Sylvie Boldo : Bonjour. Oui, nous sommes là.

Frédéric Couchet : Parfait. Je précise que c’est un premier test de connexion. On est encore en mode covid, donc Fabien et Sylvie sont à distance pendant que Étienne et moi sommes au studio.
L’idée de cette première émission, qui est née d’ailleurs lors d’une rencontre l’an dernier avec la Société informatique de France dont Fabien Tarissan est membre du conseil d’administration, c’est un peu d’expliquer ce qu’est l’informatique, parce que, en fait, l’informatique est omniprésente dans nos vies mais ce n’est pas sûr que les gens aient bien compris ce que c’est. Ce n’est probablement qu’une première émission parce que nous aborderons certains sujets peut-être plus en détail dans d’autres émissions ; là on va essayer de débroussailler un petit peu ce terrain. Première question, on va laisser se présenter les deux personnes que nous avons invitées. On va commencer par Sylvie Boldo.

Sylvie Boldo : Je suis chercheuse en informatique à l’Inria et l’Université Paris-Saclay et ma recherche porte sur la confiance dans les ordinateurs et les calculs sur ordinateur.

Frédéric Couchet : C’est un des sujets qu’on va aborder, justement cette fameuse de notion de confiance. Fabien Tarissan.

Fabien Tarissan : Je suis également chercheur mais au CNRS, en informatique également. Mon domaine d’expertise c’est plutôt les réseaux. J’ai aussi une casquette d’enseignant puisque je suis professeur attaché à l’École normale supérieure de Paris-Saclay et, vous l’avez dit, j’ai également une casquette en termes de médiation, de diffusion des connaissances auprès du plus grand nombre, du grand public pour faire simple : je suis, pour la Société informatique de France, vice-président en charge de la médiation scientifique.

Frédéric Couchet : D’accord. On va commencer par une question qui est peut-être un peu compliquée, mais on va essayer de rentrer un petit peu là-dedans, c’est la définition de l’informatique. Si on vous pose la question quand on vous rencontre la première fois et que vous expliquez que vous faites de l’informatique, comment vous définissez l’informatique ? Quels sont les grands concepts de l’informatique et après on va essayer de les détailler un petit peu. Sylvie Boldo.

Sylvie Boldo : Pour moi il y a quatre concepts importants en informatique qui sont : l’information, l’algorithme, le programme et la machine. Je ne sais pas si vous voulez que je détaille les quatre ou si Fabien veut le faire.

Frédéric Couchet : Vous allez pouvoir les détailler tous les deux. Vous, vous partez sur les quatre grands concepts. De votre côté, Fabien Tarissan, est-ce que vous partez sur ces mêmes quatre grands concepts ou est-ce que vous donnez une définition un peu différente ?

Fabien Tarissan : En général je commence par dire une formule, une définition qui est assez communément admise dans notre communauté qui est de dire que l’informatique c’est une science et que c’est une science du traitement automatisé de l’information. J’aime bien cette formule parce que, notamment,elle renvoie d’abord à la démarche scientifique qui est derrière l'informatique, l’informatique c’est une discipline scientifique, mais aussi à l’aspect technique, au traitement automatisé qui, lui, renvoie plutôt à l’ordinateur. Et effectivement, ensuite on peut se demander ce que recouvre, en termes de champs disciplinaires, la notion de science du traitement automatisé de l’information et là je suis tout à fait d’accord avec Sylvie, il faut travailler les quatre concepts qu’elle vient d’énoncer et qui sont d’ailleurs la manière que l’on a de présenter l’informatique au lycée dans les programmes d’enseignement scolaire. Ce sont effectivement quatre concepts qui traversent tous les champs de la discipline informatique.

Frédéric Couchet : D’accord. On va les aborder et on reviendra tout à l’heure sur la formation au collège, lycée, puis la formation des enseignants. Déjà on retient une science du traitement de l’information mais également une technique parce que, pendant longtemps, les gens n’ont sans doute vu l’informatique que d’un point de vue technique. Donc quatre grands concepts : information, algorithme, langage, machine.
Est-ce qu’on peut commencer un petit peu à détailler ces quatre grands concepts en commençant par le premier, l’information. Sylvie Boldo.

Silvie Boldo : L’information, il y en a partout autour de nous. Ça va effectivement des serveurs de données de vos mails à des choses très simples. Je voulais vous donner un exemple : vous imaginez une classe qui a des notes sur 20 et le professeur veut, par exemple, la moyenne ou la note maximale de ces notes. La donnée de base, eh bien ça va être les notes de tous les élèves. Après il va vouloir appliquer un algorithme qui est, par exemple, je vais sommer, faire la somme de toutes ces valeurs-là, diviser par le nombre d’élèves et là j’aurai la moyenne. Après, s’il veut le faire en vrai, il va écrire un programme dans un langage de son choix, donc il va devoir écrire un texte compréhensible par la machine qui va lui permettre de faire ce calcul-là. Après, ça va rentrer dans la machine qui va vous donner un résultat.
Quelque part l’informatique c’est passer au travers de ça, c’est-à-dire aller d’un certain nombre d’informations et d’idées de façon à concevoir un algorithme qui, après, va marcher sur une machine.

Frédéric Couchet : D’accord. C’est déjà intéressant et on va revenir sur ces quatre concepts, notamment avec Fabien, mais que les gens comprennent que « informatique » n’est pas synonyme forcément « d’ordinateur », on peut faire de l’informatique sans machine quelque part et on verra peut-être tout à l’heure dans l’initiation qu’on peut commencer à initier à l’informatique dès la maternelle, en fait sans ordinateur.
Fabien, sur ces quatre grands concepts et sur leur enchaînement donc information, algorithme, langage, machine ?

Fabien Tarissan : C’est intéressant de comprendre l’enchaînement. Sylvie a tout à fait raison. Comprendre ce qu’est l’informatique et avoir une démarche d’informaticien ou d’informaticienne c’est exactement ce qu’elle vient dire, c’est-à-dire mettre en œuvre l’ensemble de ces quatre concepts dans une démarche assez rigoureuse.
Si on les prend séparément j’aime bien commencer par définir ce qu’est un algorithme, parce que, notamment, l’algorithme n’est pas propre à l’informatique, ça existe depuis des milliers d’années, probablement depuis que les hommes et les femmes ont eu besoin de compter, de faire des calculs notamment sur les surfaces agraires, etc. On retrouve des algorithmes dans l’Antiquité.
Qu’est-ce que c’est qu’un algorithme ? C’est une séquence d’instructions qui est censée être simple, élémentaire, qui est censée être non ambiguë, dont l’interprétation ne dépend pas de la personne qui reçoit cette séquence d’instructions, et surtout qui résout un problème donné. L’exemple que j’aime bien prendre, notamment devant un public très jeune, c’est l’exemple de la recette de cuisine. Si vous voulez faire un gâteau au chocolat, vous suivez une recette, vous prenez tant d’œufs, tant de proportions de beurre, de farine, vous chauffez votre four à telle température, et normalement, invariablement, à la fin vous allez obtenir un gâteau au chocolat. Ce que j’aime bien dans cet exemple c’est qu’on peut très vite sentir qu’on n’a pas besoin de comprendre pourquoi ça marche, on n’a pas besoin de comprendre l’alchimie qui s’opère entre les ingrédients, à la fin, invariablement, on obtient un gâteau au chocolat. Et c’est ça qui est un petit peu au cœur d’un algorithme. Si on suit la procédure qui est exprimée par cette séquence d’instructions dans un algorithme, alors on obtient la résolution du problème auquel s’attaque l’algorithme.
Après, si on veut enchaîner et comprendre la dynamique avec les autres facettes, avec l’exemple de la recette on sent bien qu’on n’est pas dans l’algorithme informatique, d’accord. Il y a des choses qui caractérisent les algorithmes dits informatiques des autres, il y a plusieurs points particuliers, mais il y en a qui nous amène au deuxième concept qui est que les algorithmes informatiques ont pour vocation, ont pour destinée à être opérés non pas par des êtres humains mais par des machines. Ça nous amène au deuxième concept qui a été évoqué par Sylvie tout à l’heure qui est celui de machine. Il faut comprendre comment s’organise une machine qui traite automatiquement de l’information. Qu’est-ce que c’est qu’un système d’exploitation ? Qu’est-ce que c’est qu’un fichier ? Qu’est-ce qui se passe quand on met des ordinateurs connectés entre eux et qu’on crée des réseaux ?
Du coup, on a ces deux concepts qui interagissent, on a quelque chose de très abstrait, un algorithme, on a quelque chose de très concret qui est une machine et là se joue quelque chose qui est de faire correspondre ces deux mondes. Et là on a besoin d’un cadre très formel pour exprimer ce qu’est un algorithme pour une machine. C’est donc ça l’exercice de la programmation et de comprendre ce qu’est un langage de programmation. Là toute la question, notamment dans le cadre de l’enseignement, c’est de faire comprendre quels sont les éléments clefs qu’un langage doit avoir pour rendre opérationnel ce que les algorithmes veulent faire et le rendre exécutable par une machine.
On voit bien que ces points-là ont une dynamique ensemble. Ils sont en même temps très distincts et, en même temps, ils parlent un petit peu de la même chose : on a les algorithmes du côté très abstrait, la machine du côté concret et le langage qui fait opérer les deux.

Frédéric Couchet : D’accord. Je suppose qu’il y a plusieurs façons de résoudre un même problème, donc plusieurs algorithmes possibles. Par exemple si on veut trier des objets, il y a sans doute plusieurs façons de trier des objets et il y a également plusieurs langages qui existent pour mettre en œuvre cet algorithme de façon compréhensible par l’ordinateur ?

Fabien Tarissan : Tout à fait. D’ailleurs c’est une des choses que l’on enseigne très vite quand on enseigne l’algorithmique, c’est d’essayer de raisonner sur les algorithmes d’abord pour des choses très importantes qui sont être capable d’être sûr, donc de prouver – on est vraiment dans le domaine mathématique – que l’algorithme est correct, qu’il fait ce qu’il est censé faire, qu’il termine, c’est-à-dire qu’il va répondre à un moment donné. On évalue aussi ce qu’on appelle sa complexité, c’est-à-dire, grosso modo, le temps qu’il va mettre pour répondre à un problème. Et là, effectivement, on peut se mettre à comparer des algorithmes qui, en un sens, ont envie de faire tous la même chose, ils résolvent le même problème, simplement ils ne mettent peut-être pas tous le même temps à le faire.
Il y a effectivement plusieurs méthodes pour répondre à un problème et on peut se mettre à comparer ces méthodes de façon très formelle pour, du coup, choisir la plus optimale.

Frédéric Couchet : Sylvie Boldo, justement, complétez sur ces quatre facettes.

Sylvie Boldo : Pour compléter ma réponse parce que j’ai trouvé que l’exemple du tri des valeurs est intéressant. Quand on apprend le piano on fait des gammes, quand on apprend l’informatique on fait des gammes et parmi ces gammes il y a effectivement les algorithmes de tri. Dans l’enseignement de l’informatique il y a effectivement un certain nombre d’algorithmes de tri qui sont appris. C’est vraiment un exemple clef de la littérature informatique.

Frédéric Couchet : Je n’ai pas pris cet exemple totalement au hasard. Ayant été étudiant en informatique, c’est effectivement une des premières choses qu’on nous a expliquée, qu’on nous a demandé de résoudre, les algorithmes de tri. Effectivement quand il s’agit de trier 10 objets, peu importe finalement l’algorithme, mais quand il s’agit d’en trier des millions voire des milliards, évidemment la complexité de l’algorithme, comme l’expliquait Fabien Tarissan, est importante.
Le premier point important de cette discussion pour les gens qui écoutent, est qu'ils comprennent finalement que l’informatique ce sont quatre grands champs qui sont liés entre eux : information-données, l’algorithme, le langage et les machines, avec ordinateurs aujourd’hui tels qu’on les connaît, mais ça peut être d’autres machines, ça peut être des machines dans des voitures, dans des avions, dans des téléphones, etc.
Sur cette notion de quatre grands concepts liés entre eux, est-ce que vous voulez ajouter quelque chose avant qu’on passe au thème suivant ?

Fabien Tarissan : On peut peut-être rappeler une formule d’un de nos grands pontes en informatique, Edsger Dijkstra, qui a dit quelque chose que vous avez repris au début de l’émission : « L'informatique n'est pas plus la science des ordinateurs que l'astronomie n’est celle des télescopes. ». Je pense que c’est important, effectivement, de démystifier ça, de décorréler un petit peu l’image que le grand public peut avoir de l’informatique à travers juste de l’objet machine et comprendre que derrière il y a une démarche scientifique qu’il est important également de percevoir et de comprendre.

Frédéric Couchet : D’accord. Sylvie est-ce que vous voulez ajouter quelque chose sur cette partie ?

Sylvie Boldo : Juste un petit complément. Effectivement, les gens imaginent un ordinateur. Ce que j’aime faire dans les classes de petits c’est leur apporter un ordinateur en morceaux pour qu’ils voient le processeur. Les enfants sont fascinés d’avoir entre les mains un processeur, mais effectivement, ça ne veut pas dire que l’informatique repose sur des processeurs, on peut faire de l’informatique débranchée.

Frédéric Couchet : On va en parler tout à l’heure.

Sylvie Boldo : On va en reparler, oui.

Frédéric Couchet : Votre expérience m’amuse parce que, quand mes enfants étaient encore petits, je leur ai ouvert le capot d’un ordinateur, à l’époque où on pouvait encore le faire facilement, pour leur montrer ce qu’il y a dedans et c’était quand même très passionnant. On va parler justement de la partie déconnectée tout à l’heure.
Deuxième thème un plus rapide c’est peut-être donner quelques dates. Est-ce qu’il y a quelques dates clefs dans l’histoire de l’informatique. Tout à l’heure Fabien Tarissan disait que les algorithmes ça n’avait rien de nouveau, c’était arrivé avec la création de l’humanité quelque part. Est-ce qu’il y a des dates clefs à retenir dans l’histoire de l’informatique ? Sylvie ou Fabien, qui veut commencer ?

Sylvie Boldo : Ce que j’aime bien c’est la machine de Blaise Pascal au 17e siècle, la Pascaline, qui est effectivement le début des calculs automatisés. Après il y a d’autres outils. C’est une machine que j’aime beaucoup et ça montre qu’en fait faire des calculs à la main c’est pénible, donc on veut les automatiser, donc on veut les automatiser depuis très longtemps, déjà au 17e siècle. Maintenant on va beaucoup plus vite, mais on a toujours une machine à calculer.

Frédéric Couchet : Fabien Tarissan.

Fabien Tarissan : C’est marrant. Si on part sur le côté technique, sur les machines, j’aime bien aussi compléter ce genre de machines avec des machines qui n’ont rien à voir avec l’informatique à priori, en tout cas auxquelles on ne pense pas en premier, que sont la machine à tisser. Pourquoi ? Parce que ce sont des exemples de machines programmables. Donc la machine à tisser, les orgues de Barbarie sont des machines dans lesquelles on va changer un petit bout à l’intérieur et ça va totalement changer la sortie de cette machine et c’est quelque chose qui est aussi au cœur du fonctionnement de l’informatique, enfin de l’aspect technique de l’informatique.
En termes de dates, ce que j’aime bien citer à mes élèves de première année, c’est rappeler que la naissance de l’informatique telle qu’on la connaît maintenant, ce sont les années 1950, fin des années 1940 on a les premiers ordinateurs et en fait on a, un tout petit peu avant, un texte fondamental qui a été écrit par Alan Turing, qui me semble fondamental, dans lequel est énoncé pour la première fois le concept de machine universelle qui est une description très abstraite de ce que pourrait être un ordinateur et cette description est faite dix ans avant les premiers ordinateurs tels qu’on peut les connaître maintenant. C’est un texte de 1936 qui me semble fondamental.
Après il y a d’autres dates.

Frédéric Couchet : Oui, il y a plein d’autres dates. C’était pour vous demander quelques dates. Je crois que les premiers enseignements universitaires c’est aussi dans les années 1970, il y a une cinquantaine d’années en gros. C’était pour avoir quelques dates et après on renvoie les personnes aux pages Wikipédia et aux références qu’on mettra sur le site de l’April. C’est important de noter que finalement l’informatique n’est pas quelque chose de récent, c’est quelque chose qui existe depuis très longtemps.
On va aborder un troisième sujet qui est notamment le cœur du travail de Sylvie Boldo, c’est la confiance dans l’ordinateur. En fait, les deux choses qu’on voit souvent chez les gens c’est soit ils pensent que l’ordinateur est absolument parfait et ne peut jamais faire d’erreurs. Et deuxième chose qu’on voit souvent, notamment avec l’informatique propriétaire, c’est que quand il y a quand même des erreurs ou des bugs, c’est forcément de la faute de la personne et pas de l’ordinateur, l’ordinateur étant parfait. Tout à l’heure Fabien Tarissan a aussi parlé, je crois, de vérification ou de méthode formelle, je ne sais plus, qui fait partie de la confiance.
Sylvie Boldo, je vous propose de commencer là-dessus puisque c’est justement votre cœur de recherche, sur la confiance dans l’ordinateur : est-ce que l’ordinateur est un outil magique et parfait ? Est-ce qu’il a des limites ?

Sylvie Boldo : Quelque part, pour l’utilisateur, c’est quand même un outil un peu magique parce que ça permet d’accéder très rapidement, très vite, à des informations qui sont éloignées. Quelque part les gens ont effectivement perçu le téléphone ou l’ordinateur comme des outils magiques. Le problème c’est qu’en fait un ordinateur c’est très bête, ça fait ce qu’on lui demande et surtout, ça fait ce qu’on lui demande et pas ce qu’on veut. Effectivement on interagit avec l’ordinateur, qui est une machine, par le biais de programmes — Fabien a évoqué tout à l’heure les systèmes d’exploitation —, donc quelque part il y a des humains qui ont programmé des programmes qui nous permettent d’interagir avec la machine, qui est un truc très bête qui sait faire des additions, des multiplications, etc., mais qui n’a aucune idée de ce qu’il est en train de faire. Donc de temps en temps ça ne marche pas comme on veut. Effectivement, souvent c’est la faute de l’ordinateur. La solution c’est soit de râler sur l’ordinateur, ce qui ne marche pas, soit de rebooter, ce qui marche parfois, soit d’autres choses. Dans un contexte personnel ce n’est pas forcément très grave, mais l’informatique est aussi dans les avions, dans les hôpitaux, etc., donc il peut y avoir des cas où on a besoin d’un peu plus de sûreté et de confiance. Il y a un pan de l’informatique qu’on appelle méthode formelle qui a pour but d’amener de la confiance pour effectivement être sûrs qu’un certain nombre de programmes ou d’algorithmes sont corrects et ne vont pas planter au milieu.

Frédéric Couchet : Le but de ces méthodes formelles sur lesquelles vous travaillez c’est prouver de façon, quelque part, mathématique que l’ordinateur, que le langage ou que le programme qui a été écrit par un être humain fait vraiment ce pourquoi il était prévu et pas autre chose.

Sylvie Boldo : Absolument. C’est ça. Une des difficultés c’est de décrire ce que le programme est censé faire. Il ne faut pas imaginer juste un petit bout de programme de dix lignes écrit par une personne, il faut imaginer des systèmes qui sont écrits par 50, 100 personnes, qui doivent interagir entre eux. Le fait qu’une fonction écrite par quelqu’un va bien être ce que l’autre attend, ce n’est pas complètement évident non plus. Il y a des techniques de génie logiciel pour ce genre de choses, mais disons que globalement c’est quand même une question très compliquée. On commence à savoir faire des choses, il y a pas mal de recherche là-dessus, mais effectivement c’est encore du domaine de la recherche.

Frédéric Couchet : D’accord. Est-ce qu’il y a beaucoup de code qui est étudié de cette façon-là, notamment du code qui est en production, c’est-à-dire utilisé au quotidien ? C’est-à-dire est-ce que par exemple le code qui est embarqué dans les avions subit des tests via des méthodes formelles ?

Sylvie Boldo : Les programmes dans les avions sont soumis à des normes extrêmement difficiles. Ils doivent être testés de façon très intensive et ils sont au moins partiellement prouvés avec diverses méthodes formelles. Il y a un niveau d’exigence sur les codes des avions qui est très important, beaucoup plus que sur les logiciels que vous utilisez couramment. On fait quand même beaucoup d’efforts pour ces systèmes critiques. Effectivement, ce qu’on aimerait bien, c’est que ce soit beaucoup plus automatique, notamment les démonstrations, c’est un des sujets sur lesquels les gens travaillent. Il y a effectivement des niveaux d’exigence pour certains programmes qui sont très élevés.

Frédéric Couchet : Ça fait combien d’années que des gens travaillent sur ce champ-là de cette preuve formelle ?

Sylvie Boldo : Sur les méthodes formelles, ça fait au moins trente ans. Les premières choses c’était l’informatique théorique, le lambda-calcul, ce sont les années 70/80. Quelque part, le fait de pouvoir décrire un algorithme et un programme de façon formelle c’est quelque chose qui n’est pas nouveau. Ce qui est plus récent c’est effectivement réussir à appliquer ça sur des programmes de la vraie vie, ça on le fait au moins partiellement.

Frédéric Couchet : D’accord. Fabien Tarissan, sur ce sujet de la confiance dans l’ordinateur, est-ce que vous voulez compléter sur les méthodes formelles ou sur un autre domaine ?

Fabien Tarissan : Non, la description est très claire. Par contre j’insisterais bien sur l’importance de cette nécessité de s’assurer de la sécurité des programmes qui sont écrits. On vient de voir avec les méthodes formelles des techniques extrêmement pointues qui sont justement ce sur quoi travaille Sylvie au quotidien dans ses recherches. On peut aussi aller regarder à l’autre bout de la chaîne, notamment quand on enseigne la programmation aux plus jeunes ou d’ailleurs aux moins jeunes. On n’enseigne pas simplement le fait d’être capable d’écrire des programmes c’est-à-dire de bien connaître les mots clefs du langage et comment ils s’organisent, mais on enseigne aussi la bonne pratique. La bonne pratique de la programmation elle vise quoi ? Justement à s’assurer qu’il y ait le moins d’erreurs possibles lorsqu’on écrit un programme. En fait, même si l’algorithme est clair dans notre tête, on ne se lance pas bille en tête dans l’écriture d’un programme, on passe par des phases dans lesquelles on évalue ce que va être ce qu’on appelle la spécification d’un programme, donc qu’est-ce qu’il va prendre en entrée, quel type de données il va prendre en entrée, quel type de données il va renvoyer en sortie dans son calcul, quelles sont les contraintes ou les hypothèses qui sont portées sur ces données. On essaye d’évaluer des batteries de tests sur lesquels on va ensuite tester son programme. Il y a toute une dynamique, un processus qui participe d’une bonne pratique d’écriture des programmes et qui est en lien avec cette nécessité de s’assurer que les programmes sont corrects.

Frédéric Couchet : D’accord. On va revenir sur ce sujet et on abordera aussi celui de l’enseignement. D’abord on va faire une petite pause musicale qui va être relativement courte. Aujourd’hui ce ne sont que des pauses musicales relativement courtes, encore une fois choisie par notre programmeur musical Éric Fraudain.
Nous allons écouter Welcome back par Cloudkicker. On se retrouve juste après. On vous souhaite une belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Cause Commune 93.1

Pause musicale : Welcome back par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter Welcome back par Cloudkicker, disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.
Vous écoutez toujours l’émission Libre à vous ! sur radio Commune, la voix des possibles, 93.1 et en DAB+ et Île-de-France et partout dans le monde sur le site causecommune.fm.

Avant de poursuivre avec notre sujet, je vais répondre à la première question du quiz pour être sûr de ne pas oublier. Je vous indiquais que dans l’émission de la semaine dernière il y avait eu la première chronique d’une association qui agit notamment pour l’appropriation de l’informatique par toutes et tous et dont les locaux sont situés à côté du studio de la radio dans le 18e, je vous demandais le nom de cette association. L’association s’appelle Antanak, antanak.com. Isabelle qui est intervenue la semaine dernière m’a dit que suite à sa chronique quatre personnes ont contacté l’association pour installer un système d’exploitation libre sur leur ordinateur. Donc n’hésitez pas à contacter antanak, avec un « k », point com. C’est juste à côté du local de la radio, vous pourrez en plus passer voir la radio si vous passez dans le quartier.

On va poursuivre avec notre sujet principal qui porte sur le thème « c’est quoi l’informatique ? » avec nos invités : Sylvie Boldo, directeur de recherche à l’Inria et Fabien Tarissan chargé de recherche en informatique au CNRS.
Juste avant la pause musicale on parlait de confiance dans l’ordinateur et aussi de l’importance de la qualité d’écriture du code. Je crois que c’est Fabien Tarissan qui parlait de ça juste avant.
Avant d’aborder l’importance de l’enseignement de l’informatique, est-ce que sur cette notion d’importance de la qualité de l’écriture du code vous voulez ajouter quelque chose ? Une question un peu provocatrice : est-ce que la majorité du code, notamment dans certains logiciels, est mal écrite en fait tout simplement, pour des raisons peut-être d’urgence parce que l’entreprise ou la structure dans laquelle on travaille est sous pression ou autre ? Quelle est la qualité générale du code écrit aujourd’hui en informatique ? Fabien, Sylvie, est-ce que vous êtes encore avec nous ?

Fabien Tarissan : Je n’ai pas une grande idée. Je me dis que la qualité dépend des contraintes, dépend de la norme que l’on pose sur ce qu’est un bon programme. Si on prend les normes telles que celles évoquées par Sylvie dans l’aviation je pense qu’il y a très peu de codes qui sont bien écrits. Il y a aussi beaucoup de codes qui sont partiellement bien écrits mais cela est suffisant pour les besoins de ce qu’ils font. Moi j’écris souvent des programmes que je suis le seul à utiliser pour des petits calculs ; s’ils ne sont pas parfaits, ce n’est pas très grave tant que le résultat est juste. Je ne sais pas très bien comment répondre à cette question, je n’ai pas une idée précise de la qualité sur l’ensemble des programmes. J’ai idée qu’ils ne sont pas tous très bien écrits quand même !

Sylvie Boldo : Je pense aussi que c’est un problème compliqué de bien écrire un programme. C’est un problème connu. Je pense aussi qu’au moment où ils sont écrits ils sont probablement bien écrits, mais après les programmes changent, ils évoluent, et on leur demande souvent de faire plus que ce qu’ils faisaient au début. Quelquefois il faudrait tout réécrire et on n’a pas forcément le temps. Je pense que c’est surtout pour ça qu’on a de la mauvaise qualité à la fin.

Frédéric Couchet : D’accord. On avait fait une émission sur l’agilité et notamment la personne qui intervenait, Alexis Monville, parlait, je cite ça de mémoire, des cycles en V versus les cycles agiles. Donc cycle en V où pendant des mois des gens écrivent du code et ensuite livrent le truc et ça ne correspond pas vraiment à ce que voulait la personne, versus cycle agile où il y a des itérations courtes, par exemple à la semaine, qui permettent d’adapter l’écriture du code en fonction du retour des personnes utilisatrices. Est-ce que c’est un petit peu ça ou je suis complètement hors sujet ?

Sylvie Boldo : Non, ce n’est pas hors-sujet, c’est juste que quelque part ça dépend du projet. Des fois il faut sortir un seul truc à une certaine date, dans ce cas-là, effectivement, c’est plutôt un cycle en V. Des fois on fait un cycle en V et, en fait, on se rend compte que ce n’était pas de ça qu'on avait besoin, donc il faut soit refaire un V, soit refaire du agile et, quelque part, étant donné certaines contraintes on a faits des choix et des fois les contraintes changent, ça fait que le programme qu’on a à la fin est un petit peu bancal. Ce n’est pas forcément la faute des programmeurs du début.

Frédéric Couchet : D’accord. Donc ne tapez pas toujours sur les programmeurs et les programmeuses quand quelque chose ne fonctionne pas ! On va aussi rappeler que l’informatique est un domaine très large, ce n’est pas parce qu’on fait de l’informatique qu’on maîtrise toute l’informatique. C’est vraiment un domaine très large comme on a pu le voir. On peut être spécialiste et ne rien connaître d’un autre domaine de l’informatique. C’est « normal » entre guillemets.

Sylvie Boldo : C’est tout à fait normal, je ne connais rien en réseaux.

Fabien Tarissan : Je connais très peu de choses sur les bugs.

Frédéric Couchet : On a parlé tout à l’heure, évidemment, de l’importance de l’enseignement de l’informatique ou, en tout cas, nous on considère que c’est important. Justement, je voudrais vous demander, avant qu’on aborde comment se passe l’enseignement de l’informatique aujourd’hui en France, pourquoi est-ce si important que ça d‘enseigner l’informatique ? Finalement par rapport à ces quatre grands concepts qu’on a vus au début de l’émission, je les rappelle, information, algorithme, langage, machine, lesquels doit-on apprendre aux personnes ? Sous quelle forme ? Quels sont les liens ?
Première question pourquoi est-ce si important d’apprendre l’informatique à nos élèves ou même, peut-être, au grand public, je ne sais pas ? Fabien Tarissan on va commencer par vous parce que, je le rappelle, vous êtes, je crois, vice-président, médiation de la Société informatique de France. Je crois que vous travaillez beaucoup sur ce domaine-là.

Fabien Tarissan : La médiation, du coup, c’est plus sur la diffusion des connaissances et pas forcément directement sur l’enseignement, mais, bien sûr, c’est très fortement lié.
Pour reprendre quelque chose qui a été dit tout à l'heure par Sylvie, l’informatique est partout, la notion d’information est partout, le numérique, il me semble constater que ça amène à des fantasmes dans les deux sens. C’est-à-dire des fantasmes tout à fait déraisonnables sur la résolution espérée de problèmes profonds et, à l’inverse, des peurs tout à fait irraisonnées sur les développements technologiques et le fait que ça dépasse l’humanité.
En réalité, comme souvent dans l’évolution des sciences et des techniques, ce ne sont pas tant les innovations elles-mêmes mais l’exploitation des possibilités qu’elles offrent qui sont porteuses soit de dangers soit, au contraire, de bienfaits pour le plus grand nombre.
Ce qui importe au final c’est d’être capable de peser sur ces développements et de maîtriser leurs conséquences. Du coup, comment contrôler les conséquences d’une nouvelle science ou d’une nouvelle technologie si on ne comprend pas, au préalable, ce sur quoi elle se fonde. C’est pour ça que c’est important de comprendre ce qu’est l’informatique, ce que sont les algorithmes, ce qu’est la notion de sécurité des programmes, ce que sont les réseaux, pour ensuite, en citoyen et citoyenne éclairés, peser sur les choix qui nous sont offerts.
Voilà en tout cas comment je conçois l’importance pour tous d’ailleurs, pas simplement pour les élèves, vous l’avez dit, d’avoir un minimum de connaissances sur ce qu’est l’informatique.

Frédéric Couchet : Sylvie Boldo.

Sylvie Boldo : Je suis complètement d’accord. Je pense que c’est important que les citoyens soient éclairés sur l’informatique parce qu’ils l’utilisent tout le temps. C’est-à-dire qu’effectivement ils vont faire leur déclaration des revenus sur le site web des impôts, ils vont éventuellement donner des informations à Google, Facebook, Amazon et ils ne se rendent pas forcément compte des conséquences effectivement de donner ses données, d’utiliser des programmes, quelque part parce qu’on ne leur a pas expliqué, on ne leur a pas expliqué ce que Google pouvait faire avec leurs données, donc on ne peut pas espérer que les gens aient un avis éclairé si on ne leur explique pas. Ça, effectivement, c’est important pour moi et à tout âge. On commence par les jeunes parce qu’ils vont grandir mais, quelque part, ça mériterait d’être plus large.

Frédéric Couchet : Ça me fait penser à une question que m’avait envoyée Marie-Odile qui s’occupe des transcriptions chez nous en préparant l’émission, je retrouve la petite question : si on dit que l’informatique est partout, pourquoi est-elle si mal comprise par les responsables politiques ? Est-ce que c’est un problème justement de formation ? De génération quelque part peut-être ? Peut-être que les responsables politiques sont majoritairement d’une génération qui n’a peut-être pas appris l’informatique. Est-ce que vous partagez ce point de vue, peut-être que vous ne le partagez pas, sur le fait que l’informatique est mal comprise par les responsables politiques actuels ?

Fabien Tarissan : Si, je partage ce point de vue. Je pense que les décideurs publics, au sens large, pas que les hommes et les femmes politiques, je le vois aussi dans le domaine de la magistrature où les algorithmes arrivent aussi dans les tribunaux soit pour épauler les juges soit, au contraire, pour pour que ça devienne des sujets de droit — il faut trancher d’un point de vue juridique sur des questions qui touchent à l’informatique — et les gens sont mal préparés. Effectivement, la raison vient en partie du fait qu’ils sont d’une génération où il n’y a pas eu de formation à l’informatique, donc il n’a pas du tout de connaissances sur ce qu’est un algorithme ou sur ce qu’est l’informatique. Oui, je suis assez d’accord avec ce constat.

Frédéric Couchet : Et Sylvie Boldo, de votre côté ?

Sylvie Boldo : Oui, tout à fait. On ne les a pas formés on ne peut pas espérer qu’ils sachent !

Frédéric Couchet : Justement parlons donc de l’enseignement de l’informatique. On va parler des élèves dans un premier temps et, si on a le temps, on parlera peut-être après des adultes. À partir de quelle classe d’âge peut-on commencer à enseigner l’informatique et sous quelle forme ? Notamment est-ce que dès le départ on va parler de données, d’algorithme, de langage, de machine ? Comment on commence ? À quel âge ? Qu’est-ce qu’on fait en fonction des différentes classes d’âge ? Pour parler concrètement, est-ce qu’en maternelle on peut initier à l’informatique et est-ce qu’il faut initier à l’informatique dès la maternelle ?

Fabien Tarissan : Est-ce qu’il faut ?, je ne sais pas, mais est-ce qu’on peut ?, oui. J’en ai fait l’expérience, je suis déjà intervenu en maternelle. Du coup, il faut réfléchir à ce qu’est le programme au niveau scolaire auquel on essaye de participer. C’est très personnel ce que je dis là, ce n’est pas une réponse globale. En l’occurrence, quand j’étais intervenu en moyenne section, ils travaillaient la notion de déplacement et de positionnement dans l’espace. Il fallait que les élèves, dans l’année, arrivent à comprendre quand on leur dit « droite, gauche », quand on leur dit à « droite de l’arbre, à gauche de l’arbre, à l’entrée, etc. » On avait travaillé sur un petit problème de déplacer des personnages sur une grille, ça participait d’un conte qui était travaillé à ce moment-là. J’étais intervenu pour discuter avec les élèves de comment on pourrait expliquer à ce petit personnage qui doit se rendre à un endroit sur une carte comment se déplacer. Donc on avait discuté langage. On avait essayé ensemble de mettre au point des mots clefs qui permettraient à quelqu’un, les élèves, de décrire le déplacement que le personnage devait opérer sur une grille et ensuite on avait mis en œuvre ce langage qu’ils avaient donc proposé eux-mêmes, bien sûr on avait encadré ça. Ensuite ils écrivaient de tout petits programmes à base de flèches, à base de déplacements et c’étaient des algorithmes, c’était leurs premiers programmes. Bien sûr, on ne mettait pas ces mots-là dessus. On ne parle pas de programme, on ne parle pas de langage, on ne parle pas d’algorithme et de complexité, bien évidemment. Mais on fait le plus important c’est-à-dire qu’on travaille les concepts, on forge de l’intuition pour que plus tard, dans leur scolarité, lorsqu’ils tombent sur la notion d’algorithme, la notion de terminaison, la notion de programme, eh bien ça fasse écho à des choses qu’ils ont déjà travaillées plus jeunes.

Frédéric Couchet : Est-ce que ce que vous décrivez est un peu en rapport à ce qu’on faisait il y a longtemps, ça existe peut-être toujours, la tortue du langage Logo ?

Fabien Tarissan : Oui. Sauf que là on ne le faisait pas avec une machine. Le problème que je vois dans l’apprentissage avec exclusivement un ordinateur c’est que c’est un médium qui met une barrière entre les concepts dont on parlait tout à l’heure et leur apprentissage. Si on passe par l’ordinateur pour enseigner ces concepts, alors il faut alors au préalable appréhender l’outil, il faut être capable d’écrire sur un clavier, il faut être capable d’être agile avec ses doigts, il faut être capable de lire les messages d’erreur sur un ordinateur. Donc il y a tout un écart qui se fait entre les concepts-mêmes et l’apprentissage. Lorsqu’on évacue l’ordinateur, notamment auprès des plus jeunes, ça facilite beaucoup le fait de travailler les concepts. Nous on travaillait ça avec du papier, un crayon et des flèches. Sinon oui, ça correspond beaucoup à ce qu’on faisait avec la tortue Logo, bien sûr.

Frédéric Couchet : D’accord. Dans l’enseignement actuel français on peut commencer dès la maternelle, mais dans les programmes officiels on commence à partir de quand en fait ? À partir de quelle classe d’âge ?

Fabien Tarissan : L’informatique telle qu’on l’a décrite tout à l’heure, notamment l’enseignement des quatre concepts, on la retrouve très clairement en première. C’est là qu’il y a la spécialité informatique, une spécialité sur laquelle les élèves de première, donc dans le prolongement, en terminale peuvent passer le bac et c’est une spécialité au même titre que les mathématiques, la littérature, la philosophie, l’histoire-géo, etc. Là c’est vraiment l’enseignement comme on l’a dit tout à l’heure.
C’est aussi abordé avant dans les programmes, on retrouve de l’informatique, notamment l’algorithmique, dans les programmes de mathématiques, ce qui est très bien, simplement c’est de l’informatique pour les mathématiques. Évidemment, si ça apparaît dans les programmes de mathématiques, c’est parce que c’est une partie de l’informatique qui est très fortement corrélée au programme de mathématiques de l’année. Par exemple ça va être comment est-ce qu’on calcule le plus grand commun diviseur entre deux nombres. Bien sûr on travaille l’informatique, ça forge aussi l’intuition et les connaissances, mais ce n’est pas complètement collé à ce qu’on décrivait tout à l’heure.
Ensuite, il y a un aussi cours qui est très important, qui est apparu en 2019 en même temps que la spécialité « numérique et sciences informatiques » de première et de terminale, qui est le cours de seconde, qui s’appelle « sciences numériques et technologie », qui lui est un cours obligatoire d’une heure et demie par semaine pour tous les lycéens de seconde, qui est un enseignement qui touche à l’informatique et qui touche à la technologie. C’est un enseignement qui est pensé sous forme de thèmes. Il aborde différents thèmes : qu’est-ce que c’est qu’Internet ? Qu’est-ce que c’est que le Web ? Qu’est-ce que c’est que la photo numérique ? Je ne les ai pas tous en tête là comme ça [Internet - Le Web - Les réseaux sociaux - Les données structurées et leur traitement - Localisation, cartographie et mobilité - Informatique embarquée et objets connectés . La photographie numérique]. Donc c’est un apprentissage à la fois de la technologie qui est derrière, de la bonne pratique de ces objets-là et aussi de quelques rudiments d’informatique au sens scientifique.

Frédéric Couchet : D’accord. Donc ça commence dès la seconde, puis première, terminale.
Sylvie Boldo, sur cette partie enseignement, est-ce que vous voulez compléter avant que je pose une question sur la formation des enseignants ?

Sylvie Boldo : Je voulais dire que je n’ai pas testé la maternelle, je n’ai pas été si courageuse que ça, j’ai testé le primaire et, par contre, c’était plutôt de l’algorithmique, pas sur ordinateur non plus, mais avec des Duplo donc avec des objets physiques qu’il faut déplacer. Là les algorithmes c’est comment je me déplace d’un certain nombre de cases pour effectivement faire ce que je voulais. Ma pratique c’est que ça marche très bien. C’est-à-dire qu’effectivement les enfants se prennent vraiment au jeu de trouver un algorithme, je ne dis pas forcément le gros mot « algorithme », mais de résoudre le problème et de trouver une méthode systématique. Ça les entraîne vraiment à ce qu’on peut appeler plus tard la pensée algorithmique, c’est-à-dire effectivement comment je trouve une méthode systématique pour résoudre mon problème.

Frédéric Couchet : D’accord.
Par rapport à ces cours se pose la question de la formation des enseignants et des enseignantes. Historiquement, je crois que la plupart de ces cours étaient donnée notamment par des professeurs de mathématiques, etc. Depuis peu, si je ne me trompe pas, il y a un CAPES informatique. Est-ce que qu’aujourd’hui les enseignants sont eux-mêmes et elles-mêmes formés pour donner des cours d’informatique en tant que science ? Où est-ce qu’on en est de cette formation ? Fabien Tarissan.

Fabien Tarissan : En partie. En fait l’informatique a fait son introduction dans les programmes il y a à peu près une dizaine d’années avec la spécialité « Informatique et sciences du numérique », qui s’appelait ISN, qui a donc disparu depuis pour cette spécialité plus importante qui s’appelle « Numérique et sciences informatiques ».
En 2019, si je me souviens bien, 30 000 élèves avaient choisi la spécialité informatique en première, c’est quand même conséquent. Ça demande à peu près, je dis un petit peu à la louche mais c’est l’ordre de grandeur, 2500/2800 professeurs pour faire ça. Effectivement la question se pose de qui va enseigner, qui peut être formé pour ça ? Il y a eu plusieurs courants de formation. Comme vous l’avez dit, des enseignants qui sont, en fait, des enseignants d’une autre discipline, qui se sont formés, qui ont fait de la formation continue pour, entre guillemets, « se mettre à niveau », pour avoir l’ensemble des connaissances du programme pour enseigner ça. Il faut se rendre que la spécialité c’est quatre heures par semaine en première, six heures par semaine en terminale. C’est quand même très conséquent en termes de connaissances à avoir et de recul à avoir pour le professeur pour qu’il soit à l’aise dans le fait de dispenser ces connaissances-là. Aujourd’hui, entre cette formation ISN qui avait eu lieu il a dix ans et la formation très récente à travers un diplôme inter-universitaire pour préparer les enseignants, on en est aujourd’hui à travers ces formations, ces différentes habilitations qui ont formé des enseignants d’une autre discipline, autour je crois de 1500. Je dis à peu près, il faudrait vérifier, j’aurais dû vérifier pour être plus précis.

Frédéric Couchet : Ce n’est pas grave, on mettra les bons chiffres.

Fabien Tarissan : C’est à peu près ça. Il manque quand même, au bas mot, 1000 professeurs pour ouvrir partout où on voudrait ouvrir ces classes-là pour répondre à la demande.
Il y a effectivement un CAPES, le CAPES il est très bien, c’est une formation longue, ce sont des gens qui sont en licence, qui ont suivi une formation universitaire en informatique et qui passent le concours du CAPES pour être professeur qui est la voie habituelle, en fait, pour enseigner une discipline au lycée et au collège, le CAPES c’est 30 places par an, donc on ne va pas aller très vite à ce rythme-là !

Frédéric Couchet : Trente places !

Fabien Tarissan : C’était 30 places cette année. Il a ouvert l’année dernière, donc là on a la toute première promotion de capétiens et de capétiennes ; 30 places dans le public et dix places dans le privé. C’est très peu pour répondre à la forte demande, au fort besoin d’enseignants. Donc oui, il va falloir muscler un petit peu notre corps enseignant. Il va falloir aussi regarder comment va s’opérer l’articulation entre les nouveaux formés, les capétiens et les capétiennes, et ceux qui ont fait un effort considérable dans une formation ad hoc, à travers les habilitations que j’évoquais avant. Il faut voir que ce sont des professeurs qui se sont formés en continu pendant qu’ils enseignaient leur matière. Ils avaient leur service dans la semaine, ils enseignaient et ils ont pris des semaines de vacances pour se former huit heures par jour pendant cinq semaines pour être prêts à enseigner cet enseignement à la rentrée. Donc il va falloir articuler ces deux corps-là et notamment pas que les nouveaux arrivants remplacent simplement tous ces gens-là qui ont fait un effort considérable pour démarrer ces enseignements de spécialité.

Frédéric Couchet : D’ailleurs sur ce sujet-là, si je me souviens bien, l’association EPI, Enseignement public et informatique, a publié récemment un communiqué de presse qui s’inquiétait justement de cette situation que vous évoquez.

Fabien Tarissan : Effectivement, c’est l’EPI qui a alerté sur cette question et, du coup, on essaye de voir exactement ce qui s’est passé, comment les décisions se prennent. Il faut juste porter une attention sur la manière dont vont s’opérer les affectations dans les lycées. Il serait inacceptable que tous ces gens qui ont fait énormément d’efforts pour se former et pour enseigner se voient du jour au lendemain sans enseignement d’informatique simplement parce que maintenant il y a quelques capétiens qui arrivent. Il y a de place pour tout le monde, il y a une forte demande, il y a un fort besoin, il faut juste qu’on arrive à prendre les bonnes décisions en termes d’affectation, en termes de répartition des classes.

Frédéric Couchet : Je ne vais pas vous demander si le ministre actuel peut prendre ce gendre de décision… Je fais mon commentaire tout seul !
Le temps avance. Je regarde l’heure parce que j’aurais aimé qu’on aborde un dernier sujet, celui des réseaux, sur lequel notamment vous travaillez Fabien. Sylvie, est-ce que vous voulez compléter ou ajouter quelque chose sur cette partie enseignement de l’informatique soit pour nos élèves, soit pour les adultes ?

Sylvie Boldo : Ce qu’a dit Fabien était très complet. Je voulais juste souligner le travail très important des professeurs qui se sont formés à l’informatique parce qu’ils ont vraiment travaillé très dur.

Frédéric Couchet : Oui, tout à fait. Pour en connaître quelques-uns, ils ont travaillé à côté sur leurs heures, ils se sont formés souvent, en plus, en utilisant des logiciels libres et des ressources libres. Donc ça c’est vraiment important.
On va aborder un dernier sujet, il nous reste quelques minutes, même pas une dizaine de minutes, un sujet qui est important sur lequel on reviendra sans doute aussi dans le cadre d’une autre émission.
Quand on discute avec des ados, il y a une chose qui revient assez souvent c’est que ces personnes n’ont souvent pas compris la différence entre un navigateur et un moteur de recherche. Je ne vais pas donner le nom du moteur de recherche, en l’occurrence si, c’est souvent Google, mais il y a souvent une confusion entre les deux, c’est-à-dire que pour eux le navigateur qu’ils utilisent, en fait, c’est uniquement un moteur de recherche. Donc il y a une mécompréhension du fonctionnement d’Internet, du Web, encore plus sans doute des algorithmes derrière les réseaux sociaux que les personnes utilisent. Ça c’est une de vos thématiques, Fabien Tarissan, de recherche et de travail, d’ailleurs je rappelle que vous avez écrit un ouvrage qui s’appelle Au cœur des réseaux. Des sciences aux citoyens, aux Éditions Le Pommier en 2019. J’aimerais que vous nous parliez un petit peu de l’importance de comprendre comment fonctionne Internet, le Web, pour comprendre le monde qui nous entoure aujourd’hui, qu’on utilise au quotidien.

Fabien Tarissan : Ce monde en ligne, oui tout à fait. Vous parlez de confusion entre navigateur et moteur de recherche, il y a des confusions encore plus profondes, la confusion entre Internet et le Web est très courante. Quand on dit qu’on va surfer sur Internet alors qu’en fait on va surfer sur le Web pour récupérer des informations, ce sont des confusions. Par exemple Internet et le Web sont deux objets, sont deux réseaux mais deux réseaux extrêmement différents. D’ailleurs l’année dernière, en 2019, on a célébré les 50 ans de la naissance d’Internet et, la même année, on a fêté les 30 ans de la naissance du Web. Ce n’est pas simplement que ce sont deux objets différents, c’est qu’ils ont 20 ans d’écart au moment de leur création. 20 ans, à l’échelle de l‘informatique moderne, c’est quand même beaucoup.
Il y a deux choses à dire. D’abord ça ne me choque pas tant que ça qu’on confonde Internet et le Web et qu’on prenne l’un pour l’autre. Par contre, quand on commence à réfléchir sur les enjeux qui sont derrière ces objets, derrière ces deux réseaux, alors là ça devient important de les distinguer. Par exemple, on a beaucoup parlé ces dernières années de la neutralité du Net qui était un acquis, enfin un consensus de la communauté pour faire fonctionner le réseau internet, et qui commence à être détricoté aux États-Unis notamment. Donc là, si on veut comprendre ce qui passe, il faut comprendre ce qu’est Internet. Le Web n’a aucun lien avec la question de la neutralité du Net. La neutralité du Net c’est savoir si on a le droit, en tant qu’opérateur de télécommunications, de traiter les flux d’informations qui arrivent à un point du réseau de façon différente que neutre. Jusqu’à présent non, le réseau devait être neutre, donc il devait traiter tous les flux de la même manière et maintenant on commence à donner le droit à ces opérateurs de le faire de façon différente.
À l’autre extrême, si je prends un autre exemple dont on parle beaucoup en ce moment que sont les fake news, là c’est l’inverse. L’Internet n’a rien à dire sur les fake news, ce qui est important c’est le Web qui permet de comprendre comment ces fausses informations se créent, comment est-ce qu’elles sont relayées sur les réseaux, pourquoi est-ce qu’elles acquièrent une telle notoriété en général extrêmement vite, pourquoi est-ce qu’elles touchent autant d’utilisateurs du Web, pour essayer de comprendre comment s’en prémunir d’une certaine façon.
Donc oui, je crois qu’il y a un travail à faire pour bien comprendre ce qui se joue derrière ces objets, pour comprendre aussi ce qui se joue derrière les algorithmes qui opèrent sur ces réseaux. Vous avez cité les moteurs de recherche qui ont effectivement un rôle. Un rôle, il faut le souligner, qui est nécessaire. En moyenne, quand quelqu’un tape des mots clefs sur un moteur de recherche quel qu’il soit, il y a plusieurs centaines de milliers de pages web qui correspondent à cette requête. Il est évident qu’on ne peut pas laisser l’utilisateur en face de 200 000 pages web livrées en vrac en lui disant « voilà, il y a ces 200 000 pages qui devraient t’intéresser ». Évidemment il faut classer l’information, évidemment il faut organiser l’information, il faut le faire de manière automatique et c’est ça le travail d’un moteur de recherche. Mais, en même temps, du coup, les moteurs de recherche ont un impact extrêmement fort sur l’information qui est rendue visible. On ne voit, en réalité, qu’une infime fraction des pages web qui existent, des posts qui existent sur les réseaux sociaux, etc. Donc se pose la question de quel impact ça a sur notre manière de raisonner ensuite, sur les décisions qu’on prend hors-ligne, par exemple sur notre manière de voter.
C’est d’ailleurs pour ça que j’ai écrit l’année dernière ce livre, pour essayer de démystifier un petit peu le fonctionnement à la fois des réseaux, en même temps des algorithmes qui opèrent sur ces réseaux, essayer de faire comprendre aussi l’économie qui se joue derrière puisque la plupart des services qu’on utilise se présentent comme gratuits aux utilisateurs. Or, on le sait bien, il y a une énorme économie derrière. Donc il faut comprendre comment se joue cette économie, d’où vient la valeur ajoutée qui crée l’économie pour les sociétés qui sont derrière. Tout ça, encore une fois, pour choisir de façon éclairée quel service on va utiliser, comment on va l’utiliser et comment on va paramétrer tout ça.

Frédéric Couchet : Tout à l’heure on parlait de la formation des élèves. Est-ce que dans les spécialisations, les cours de spécialité informatique, est-ce que ces thèmes sont abordés ou pas du tout ?

Fabien Tarissan : Dans la spécialité première et terminale, on le trouve un petit peu à la marge, disons que c’est saupoudré. Mais c’est avant tout un enseignement scientifique au sens, je dirais, science dure, donc c’est moins fait. Par contre, c’est plutôt dans le programme de seconde que c’est fait où là, à chaque fois qu’il y a un thème qui touche à ces objets-là, il y a des connaissances sur qu’est-ce que ça veut d’utiliser ces services ? Comment on se paramètre ? Qu’est-ce que ça veut dire données publiques, privées, ce genre de choses ?

Frédéric Couchet : Sylvie Boldo sur cette thématique donc Internet, le Web, les algorithmes ?

Sylvie Boldo : Juste une anecdote parce que ce n’est pas mon domaine de recherche. Si vous allez sur un navigateur web vous avez en haut une barre sur laquelle vous pouvez mettre l’adresse et, en fait, il y a un truc qui a changé au cours de ma vie : avant je ne pouvais mettre que des adresses, maintenant je peux mettre des mots clefs et ça va me faire la recherche qui correspond. Ça, ça veut quand même dire que les moteurs de recherche ont une puissance très importante puisque, effectivement, les gens ne vont plus garder en marque-page des sites web, ils vont juste se rappeler des mots clefs et passer toujours par le moteur de recherche.

Frédéric Couchet : En plus, le moteur de recherche, notamment Google, vise visiblement, quelque part, à faire disparaître les URL.

Sylvie Boldo : Absolument.

Frédéric Couchet : C’est une volonté. Je suppose que les autres moteurs de recherche, peut-être pas tous, sont sur cette même logique-là. Effectivement on l’a remarqué.
Il ne nous reste que quelques minutes. J’aurais envie de vous demander à tous les deux, en deux minutes, si vous avez un message important à faire passer par rapport à cette thématique de l’informatique ou des annonces peut-être de projets en cours ou des annonces d’évènements. En deux minutes, le message important ou les messages importants à retenir par rapport à cette thématique de l’informatique. Ce n’est qu’une première émission, notamment sur la partie algorithme, on reviendra plus en détail sans doute dans d’autres émissions. Qu’est-ce que vous auriez envie de dire en chose importante ? On va commencer par Fabien Tarissan.

Fabien Tarissan : Là à chaud, en faisant référence à ce qui vient d’être dit ? On a évoqué le fait d’avoir besoin de l’éducation, de l’enseignement, d’éduquer les citoyens pour être éclairés sur ces questions. On vient de parler de bonnes pratiques, c’est-à-dire d’être acteurs sur les services qu’on utilise, le navigateur – certains navigateurs peuvent être respectueux de votre vie privée –, les moteurs de recherche – certains peuvent l’être également, etc. –, il me semble qu’il y a une troisième dimension sur laquelle il faut être capable de peser et qu’il faut bien avoir en tête, c’est légiférer. Il faut absolument encadrer par la loi ce que l’on peut et ne peut pas faire dans le domaine de l’informatique, dans le domaine de l’exploitation des données. Ça c’est un petit peu fait avec le règlement européen dont on a beaucoup parlé ces dernières années, le Règlement général pour la protection des données et puis les transpositions dans la législation française, mais il parle exclusivement des données, de l’information. Il faut le faire aussi au niveau algorithmique. Qu’est-ce qu’on a le droit de faire en termes de traitement automatisé dans tout un tas de questions qui sont extrêmement importantes ? Je reprends un exemple que je connais un petit peu qui est celui de la justice. En ce moment on se pose la question sur à quel point on peut épauler les magistrats, les avocats, d’outils de recommandation qui vont les aider à travailler leurs affaires. Et ça on le retrouve partout. On le retrouve aussi dans le domaine médical, on le retrouve dans différents pans d’enjeux sociétaux. Et là c’est important aussi d’être capable de dire très précisément ce qu’on a le droit ou pas le droit de faire dans ces domaines-là.

Frédéric Couchet : Tout à fait. Donc il faut une révision de la dernière loi dite numérique qui est la loi, de mémoire, de 2016, la loi pour une République numérique où il y a déjà quelques petits encadrements, mais sans doute largement insuffisants.

Fabien Tarissan : Tout à fait. Il y en même des plus récentes. En décembre dernier, en décembre 2019, il y a eu une loi qui encadre ce qu’on a le doit de faire en termes de publicité politique dans les contextes de campagnes électorales. On n’a pas le droit de diffuser de façon opaque des messages à caractère en fait publicitaire d’un point de vue politique. C’est maintenant encadré par la loi depuis moins d’un an. Il y a continuellement des évolutions, mais il faut aussi être capable d’avoir ça en tête, de bien encadrer par la loi.
Pour moi il y a trois leviers sur lesquels il faut être éclairés : il faut avoir une bonne pratique de l’informatique, il faut être éduqué, donc il faut passer par un enseignement et il faut légiférer. C’est ça le message que je voulais faire passer en cette fin.

Frédéric Couchet : D’accord. Merci Fabien Tarissan. Et de votre côté, Sylvie Boldo, un message de conclusion.

Sylvie Boldo : Je vais m’associer au message précédent, notamment sur l’enseignement, et je vais ajouter un autre message qui est peut-être plutôt à destination des femmes et des jeunes filles : l’informatique ça peut aussi être pour vous. Effectivement ce n’est pas réservé à des jeunes hommes dans un garage. C’est vraiment un métier intéressant avec toute une palette de métiers différents qui vont de la programmation à la recherche. Ce sont des travaux qui peuvent se faire tout seul mais aussi en groupe dans des groupes qui peuvent être très agréables, donc il n’y a aucune raison de ne pas essayer. Peut-être que ça vous plaira, peut-être que ça ne vous plaira pas, mais essayez l’informatique, ça a de forts débouchés et ça peut vous plaire !

Frédéric Couchet : Je ne peux qu’appuyer et souscrire à ce message. Je vais d’ailleurs rappeler que la semaine dernière on a rediffusé un sujet sur les femmes et l’informatique avec Catherine Dufour, Katia Aresti et Caroline Corbal. Que nous avons en préparation, que nous allons enregistrer ce mois-ci un sujet sur l’initiation à la programmation pour les femmes avec Ada Tech School, Django Girls et la troisième c’est Ladies of Code Paris ; malgré les noms ça parlera français, donc avec trois intervenantes. Que dans les podcasts vous pouvez aussi écouter, je ne sais pas à quelle date c’était, mais vous retrouverez sur causecommune.fm, l’émission sur l’initiation sur la programmation en général et dans les invités il y avait, à l’époque elle était encore lycéenne, Ludine Pierquin qui expliquait comment elle avait découvert l’informatique à travers les Coding Goûters, notamment avec le langage Scratch. Elle avait découvert et elle avait trouvé ça génial et, comme vous le dites, elle disait « les filles vous pouvez y aller, c’est aussi fait pour vous ». L’émission sur l’initiation à la programmation pour les femmes sera sans doute diffusée courant octobre, on devrait l’enregistrer d’ici quelques jours.

Je vous remercie pour cette première émission, on va dire introductive puisqu’il y avait plein de sujets sur lesquels on pourrait revenir et sur lesquels on va revenir, je pense évidemment notamment à la question des algorithmes, Internet, le Web. En tout cas c’était un grand plaisir de vous avoir malgré les conditions. J’espère que la prochaine fois on pourra voir avoir en direct pour une autre émission.
Nous étions avec Syvie Boldo et Fabian Tarissan. Je vous remercie et je vous souhaite de passer une belle fin de journée.

Fabien Tarissan : Merci à vous.

Sylvie Boldo : Merci beaucoup.

Frédéric Couchet : Nous allons faire une pause musicale.

[Virgule musicale]

Frédéric Couchet : Nous allons écouter AR Lp 36 par Cloudkicker. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Voix off : Caus Commune 93.1.

Pause musicale : AR Lp 36 par Cloudkicker.

Frédéric Couchet : Nous venons d’écouter, nous sommes en train d’écouter la fin de AR Lp 36 par Cloudkicker, disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.
Nous allons passer au sujet suivant.

[Virgule musicale]

Chronique « Partager est bon » de Véronique Bonnet, professeure de philosophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman « Mettre en application les critères du logiciel libre »

Frédéric Couchet : Nous allons poursuivre avec la chronique de Véronique Bonnet, professeure de philosophie et présidente de l’April. La chronique de Véronique s’intitule « Partager est bon ». Le thème du jour : présentation et commentaire du texte de Richard Stallman intitulé « Mettre en application les critères du logiciel libre ».
Véronique je te passe la parole.

Véronique Bonnet : Précisément, Fred, quand on regarde le titre et quand on regarde aussi les intertitres de cet article que Richard Stallman a écrit en 2015, on a l’impression qu’il est réservé aux informaticiens, qu’ils soient déjà libristes ou en voie de le devenir, parce que le texte parle de paquets logiciels, de séquences de code, de compilateurs, de distros GNU/Linux, ça veut dire distributions, de périphériques, de pages Web, de greffons et de blobs. Mais lorsqu’on lit le texte de A jusqu’à Z, on voit bien qu’il ne s’adresse pas seulement à quelques initiés, bien au contraire, puisque tout le travail de la FSF [Free Software Foundation] et j’ajouterais, sous ton contrôle Fred, le but du travail de l’April, c’est de donner à ceux qui ne s’y connaissent pas les moyens de se renseigner, par exemple sur quelles page aller pour savoir si un outil informatique est respectueux des libertés ou pas, ou encore quel programme libre utiliser à la place d’un programme non libre. Comme des logiciels nouveaux apparaissent, le mouvement du logiciel libre a besoin d’être réactif, d’être rigoureux, précis, pour examiner si un programme valide ou non les quatre libertés qui respectent la personne humaine. Je dirais que c’est cette préoccupation qui gouverne tout le texte qui n’est technique que dans le but de chercher une éthique.

Ces libertés je les rappelle, les quatre libertés, d’ailleurs Richard Stallman, dans cet article, commence par les évoquer :

  • la liberté 0 c’est la liberté d’exécuter un programme ;
  • la liberté 1, celle d’étudier le code et de le copier ;
  • la liberté 2, liberté de le modifier, éventuellement pour l’améliorer ;
  • liberté 3, distribuer des copies modifiées ou non modifiées de ce programme.

Au tout début de son travail Richard Stallman rappelle qu’une séquence de code qui ne permettrait pas ces quatre opérations serait injuste. Elle pourrait faire du mal à l’utilisateur, minorer son autonomie, ce qui est une atteinte. Or, il se trouve que certains estiment qu’on peut faire passer au second plan cette injustice si l’on raisonne simplement en termes de recherche d’efficacité, en termes de recherche de solutions.
La philosophie GNU a toujours fait de l’éthique et de la recherche de justice ce qui importait le plus. Le logiciel non libre ne s’embarrasse pas de cette question. Pour lui, seule la technicité compte et la recherche de résultat efface toute autre considération.
Le projet GNU, par ses propositions, est attentif à la liberté du code, porteuse de justice, et il prépare aussi à une autre liberté qui est liée à la liberté du code qui est la liberté de l’existence de manière plus générale dans des rapports sociaux qui sont consentis, qui sont choisis.

En 1983, au moment où Richard Stallman lance son appel pour écrire du code, il se trouve que beaucoup de paquets logiciels sont non libres, notamment les compilateurs et les bibliothèques qui sont indispensables dans un système. Il se trouve que le premier système d’exploitation entièrement libre sera constitué par GNU, complété par le noyau Linux après sa libération, permettant le dispositif GNU/Linux.
Mais alors, que penser des systèmes mixtes ? Que penser des fameuses distributions ? Est-ce qu’une distribution peut être mixte, c’est-à-dire simultanément libre par certains aspects et non libres par d’autres ? Par exemple certains, dont Richard Stallman dit qu’ils ont fait le mauvais choix, sur une plateforme non libre peuvent utiliser des logiciels libres ; ceci peut rendre service à ses utilisateurs qui sont soit mal renseignés, soit qui ont fait un choix pour des raisons d’efficacité. Par contre, et là il se trouve que la FSF et l’April veillent à ces questions, on évitera, sur une plateforme libre, d’utiliser des greffons non libres, des paquets non libres. Pourquoi ? Parce que ce qu’on installe n’est pas du tout innocent, même si on l’installe en seconde intention et par exemple, si à partir d’un système d’exploitation libre certains greffons non libres sont utilisables, il est important qu’ils puissent être choisis ou pas. Toujours l’importance de cette libre décision qui est celle de l’utilisateur.

Il y a ensuite un paragraphe sur les périphériques, par exemple lorsque nous sommes amenés à acheter des imprimantes. Il se trouve que certains périphériques non libres ne peuvent pas fonctionner à partir d’une distribution libre. Et le plus souvent d’ailleurs, lorsqu’on achète un périphérique, il est très difficile de savoir s’il est libre, s’il pourra fonctionner sous une distribution GNU/Linux. C’est pourquoi la question de la certification de tous ces outils qui sont amenés à être utilisés — est-ce qu’il est certifié ou pas ?, est-ce que les quatre libertés sont respectées ? — doit être rendue accessible, doit être manifestée à celui qui veut agir en toute connaissance de cause.
C’est vrai que la question de la certification des ordinateurs est plus délicate. Il est important, en tout cas, que le programme de démarrage soit libre. Une certification est proposée par la FSF. Il se peut que la FSF, ce mouvement fondé par Richard Stallman, puisse déclarer, vérifier que tel ordinateur est effectivement libre et là il est demandé, bien sûr, que le vendeur de cet ordinateur puisse, s’il bénéficie de cette certification, soutenir le mouvement du logiciel libre qu’il appellera ainsi et pas open source. Il faut absolument, s’il y a cette reconnaissance par la FSF que tel ordinateur est libre, il est important que ce matériel vendu par telle ou telle marque puisse se référer à ces valeurs, à ces recherches d’autonomie dont l’outil est porteur.

Enfin, et ce sera le dernier volet dans ce propos de Richard Stallman, qu’en est-il des pages web ? Le plus souvent elles contiennent des dispositifs opaques, non libres, notamment un qui va faire l’objet d’un passage important de cet article, JavaScript. JavaScript, occasionnellement d’ailleurs logiciel espion, qui exécute à l’insu de l’utilisateur ce pourquoi il a été programmé sans nécessairement le dire. Dès lors faut-il mettre en lien, à partir d’une distribution libre, des pages qui contiennent JavaScript ? Beaucoup de pages qui fonctionnent avec JavaScript, non libre, peuvent, pour être ouvertes, faire appel à une alternative qui s’appelle LibreJS, donc JS pour JavaScript. Si telle alternative n’est pas envisageable on peut parfois désactiver JavaScript si on peut s’en passer. S’il est impossible de s’en passer, alors ces pages doivent être désactivées : ces pages sont à éviter, il faut les écarter de la distribution libre.

Il se trouve que la conclusion, comme très souvent, insiste sur le pragmatisme de la philosophie GNU, c’est-à-dire cet ensemble de principes qui est manifesté dès l’aventure du Libre par Richard Stallman et ceux qui travaillent avec lui. En effet, comme il y a un caractère très mouvant sur le marché de l’informatique des logiciels, comme beaucoup de logiciels nouveaux apparaissent, alors il est très important de certifier ou de ne pas certifier, en tout cas de renseigner l’utilisateur pour s’opposer avec inventivité aux offensives non libres. Donc la tâche est constamment d’expliquer, déchiffrer, rendre accessible.

La philosophie GNU n’est pas ésotérique, elle ne s’adresse pas à des initiés. Elle se veut, c’est le terme inverse, exotérique, c’est-à-dire tournée vers le dehors. Nul ne doit être privé de la teneur des enquêtes des libristes et certainement pas vous, chers auditeurs.

Frédéric Couchet : Merci Véronique. C’était la chronique de Véronique Bonnet, professeure de philosophie et présidente de l’April, qui commentait un texte de Richard Stallman intitulé « Mettre en application les critères du logiciel libre ». Vous retrouverez sur gnu.org, g, n, u, point org. La traduction en français est assurée par notre groupe de travail Trad-GNU que vous pouvez évidemment rejoindre. Il a pour but de présenter l’informatique libre et la philosophie GNU en français.
Merci Véronique, c’était un plaisir de faire cette chronique à nouveau au studio et on se retrouve bientôt pour enregistrer d’autres chroniques et peut-être en direct. Belle journée à toi.

Véronique Bonnet : Belle journée Fred.

Frédéric Couchet : On va faire finir par quelques annonces rapides.

[Virgule musicale]

Annonces

Frédéric Couchet : Un sondage a été mis en place pour étudier l’utilisation de la contribution à OpenStreetMap, la cartographie libre, dans les collectivités et administrations. N’hésitez pas à remplir ce sondage, vous trouverez la référence sur le site de l’April, april.org, et sur causecommune.fm.
La nouvelle version du logiciel libre PeerTube, logiciel d’hébergement de vidéos décentralisé grâce à la diffusion de pair en pair et soutenu par Framasoft, vient d’être publiée avec des outils de modération améliorés, une gestion des playlists, un plugin, donc un greffon pour les annotations, et bien d’autres fonctionnalités à découvrir sur le site joinpeertube.org, tout attaché.
Il y a la reprise des soirées de contribution au Libre à la FPH [Fondation Charles Léopold Mayer pour le Progrès de l'Homme] chaque jeudi à partir de 19 heures, rue Saint-Sabin dans le 11e arrondissement de Paris.
Ce week-end il y a une install-partie, donc une fête d’installation, où vous pouvez recevoir de l’aide pour installer un système d’exploitation libre par exemple, à L’Electrolab à Nanterre, de 14 heures à 18 heures.
Et jeudi soir, à distance, il y a une réunion du groupe de travail Sensibilisation de l’April. Le groupe de travail Sensibilisation produit des outils de sensibilisation et vous pouvez y participer à distance.
Tous ces évènements sont annoncés évidemment sur le site de l’Agenda du Libre, agendadulibre.org.

Notre émission se termine et c’était un grand plaisir de refaire une émission complètement en direct, c’est la première depuis la reprise.
Je remercie toutes les personnes qui ont participé à l’émission : Éric Fraudain, Sylvie Boldo, Fabien Tarissan, Véronique Bonnet.
Aux manettes de la régie aujourd’hui Étienne Gonnu.
Merci également à Sylvain Kuntzmann, Antoine, Olivier Humbert, bénévoles à l’April, Olivier Grieco directeur d’antenne de la radio, qui s’occupent de la post-production des podcasts.
Merci également à Quentin Gibeaux, bénévole à l’April, qui découpe le podcast complet en podcasts individuels par sujet.

Vous retrouverez sur le site april.org et sur le site causecommune.fm, une page avec toutes les références utiles ainsi que les moyens de nous contacter, n’hésitez pas à nous faire des retours. Si vous voulez nous laisser un petit message, vous pouvez nous laisser un petit message sur le répondeur de la radio en appelant le 09 72 51 55 46, je répète 09 72 51 55 46, nous sommes preneurs de vos retours ou simplement de questions ou de commentaires.

Nous vous remercions d’avoir écouté l’émission. Si vous avez aimé cette émission n’hésitez pas à en parler le plus possible autour de vous. Faites également connaître la radio Cause Commune, la voix des possibles.

La prochaine émission aura lieu en direct mardi 22 septembre 2020 à 15 heures 30. Notre sujet principal portera sur les collectivités et le logiciel libre.

Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi prochain et d’ici là, portez-vous bien.

Générique de fin d'émission : Wesh Tone par Realaze.

S'inscrire à la liste d'information dédiée à l'émission « Libre à vous ! »

APRIL - lun, 09/21/2020 - 13:14

Pour savoir toutes les nouvelles de l'émission Libre à vous ! sur les libertés informatiques, inscrivez-vous à la lettre d'actus.

Vous y recevrez régulièrement les actualités concernant l'émission : annonce des podcasts, des émissions à venir et de toute autre actualité en lien avec l'émission.

Cette lettre d'information est complémentaire du flux RSS des podcasts de l'émission. Vous pouvez aussi vous abonner à ce flux, compatible avec la baladodiffusion (podcast) que vous pouvez utiliser avec un logiciel permettant la lecture d'un ensemble de flux de podcasts audio (GPodder par exemple, qui est disponible sur plusieurs plateformes).

S'abonner à la lettre d'actus

S'abonner au podcast

« Libre à vous ! » diffusée mardi 22 septembre 2020 sur radio Cause Commune

APRIL - lun, 09/21/2020 - 09:35

Au programme de l'émission : collectivités et logiciel libre avec Claudine Chassagne adjointe au Maire de la commune de Saint Martin d'Uriage ; chronique de Noémie Bergez, avocate au cabinet Dune, sur l'invalidation du « Privacy shield » ; chronique de Jean-Christophe Becquet, vice-président de l'April, sur Sésamath et les ressources pédagogiques libres.

Émission Références Transcription --> Contact

Libre à vous !, l'émission pour comprendre et agir avec l'April, chaque mardi de 15 h 30 à 17 h sur la radio Cause Commune (93.1 FM en Île-de-France et sur Internet).

Au programme de la 75e émission :

  • Notre sujet principal porte sur le thème des collectivités et du logiciel libre avec Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • la chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, qui portera sur l'invalidation du « Privacy shield »
  • la chronique « Pépites libres » de Jean-Christophe Becquet, vice-président de l'April, qui portera sur Sésamath et les ressources pédagogiques libres
  • diverses annonces
Réécouter en ligne

Votre navigateur ne supporte pas l'élément audio : écoutez l'émission (format OGG) ou format MP3.

podcast OGG et podcast MP3

-->

S'abonner au podcast

S'abonner à la lettre d'actus

Podcasts des différents sujets abordés

Les podcasts seront disponibles après la diffusion de l'émission (quelques jours après en général).

N'hésitez pas à nous faire des retours sur le contenu de nos émissions pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat). Vous pouvez nous laisser un message sur le répondeur de la radio en appelant le 09 72 51 55 46

toc_collapse=0; Sommaire 
  1. Personnes participantes
  2. Galerie photos
  3. Références pour la chronique de Noémie Bergez
  4. Références pour la partie sur collectivités et logiciel libre
  5. Références pour la chronique de Jean-Christophe Becquet
  6. Références pour la partie sur les annonces diverses
  7. Pauses musicales
  8. Licences de diffusion, réutilisation
Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • Jean-Christophe Becquet, vice-président de l'April
  • Noémie Bergez, avocate au cabinet Dune
  • Patrick Creusot, bénévole à l'April (à la régie)
Galerie photos

Vous pouvez voir quelques photos prises pendant l'émission.

--> Références pour la chronique de Noémie Bergez Références pour la partie sur collectivités et logiciel libre Références pour la chronique de Jean-Christophe Becquet Références pour la partie sur les annonces diverses Pauses musicales

Les références pour les pauses musicales :

Licences de diffusion, réutilisation

Les podcasts sont diffusés selon les termes d’au moins une des licences suivantes : licence Art libre version 1.3 ou ultérieure, licence Creative Commons By Sa version 2.0 ou ultérieure et licence GNU FDL version 1.3 ou ultérieure. Les musiques sont diffusées sous leur propre licence.

$( document ).ready(function() { var hash = document.location.hash; if (hash) { var tab = $(hash).parent('.tabcontent').attr('data-fromtab'); document.getElementById(tab).click() } });

« Libre à vous ! » sur radio Cause Commune (22 septembre 2020)

APRIL - lun, 09/21/2020 - 09:08
Start: 22 Septembre 2020 - 15:30End: 22 Septembre 2020 - 17:00

Réécouter en ligne

Lire la transcription

-->

75e émission Libre à vous ! de l'April en direct sur radio Cause Commune 93.1 FM en Île-de-France, et sur le site web de la radio, mardi 22 septembre 2020 de 15 h 30 à 17 h. Le podcast de l'émission et les podcasts par sujets traités sont disponibles dès que possible, quelques jours après l'émission en général.

Au programme :

  • Notre sujet principal porte sur le thème des collectivités et du logiciel libre avec Claudine Chassagne, adjointe au Maire, commune de Saint Martin d'Uriage, en charge (entre autres) du numérique
  • la chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, qui portera sur l'invalidation du « Privacy shield »
  • la chronique « Pépites libres » de Jean-Christophe Becquet, vice-président de l'April, qui portera sur Sésamath et les ressources pédagogiques libres

Nous contacter pour poser une question :

Intervenir pendant le direct (mardi 22 septembre 2020 de 15h30 à 17h00) :

Écouter le direct mardi 22 septembre 2020 de 15 h 30 à 17 h 00   S'abonner au podcast

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h.

Les archives de l'émission

Écouter les émissions précédentes

Data et algorithmes ; gouvernementalité algorithmique et idéologie des big data - Antoinette Rouvroy

APRIL - dim, 09/20/2020 - 18:09


Titre : Rencontre avec Antoinette Rouvroy : la data et les algorithmes ; gouvernementalité algorithmique et idéologie des big data
Intervenante : Antoinette Rouvroy
Lieu : Bruxelles
Date : février 2018
Durée : 16 35 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Antoinette Rouvroy docteur en sciences juridiques et chercheuse qualifiée du FNRS [Fonds de la recherche scientifique], Université de Namur. Elle développe le concept de gouvernementalité algorithmique qui tend à expliciter la manière dont les algorithmes imposent une gestion des sociétés sur la base des données qui s'échappent des individus.
Un entretien filmé par Thomas Gouritin, journaliste et créateur de la chaîne Regards Connectés.

Transcription Biais et représentation du réel

La prévention des biais des algorithmes est une sorte d’obsession contemporaine, mais qui est liée précisément aux ambitions propagées par l’idéologie technique des big data du fait que les big data, en fait, nous dispenseraient de la représentation. Or, en tant qu’êtres humains, nous n’avons accès au monde qu’à travers la représentation que nous nous en faisons, c’est-à-dire qu’à travers nos biais.
Les biais ne sont pas nécessairement absolument quelque chose à abattre ou à vouloir combattre absolument. L’idée qu’il serait possible de supprimer tous les biais et de réellement avoir accès au monde lui-même, directement, est une idée qui est complètement fausse.
Comme cette idée de post-vérité est dans une certaine mesure aussi une idée un peu fausse, dans la mesure où on n’a jamais eu accès à la vérité. Ce n’est pas qu’avant on avait accès à la vérité et le domaine des big data ne vont pas nous donner un accès tout à fait objectif au réel tel qu'il est. Le monde nous restera toujours mystérieux quel que soit le raffinement des algorithmes à travers lesquels on va essayer de l’explorer.
Cela étant dit, il y a des biais qui sont identifiables, qui ne sont pas nécessairement négatifs, qui peuvent l’être, mais objectiver, tenter d’objectiver ou, en tout cas, nommer les biais c’est quelque chose d’assez important si on veut pouvoir opérer une critique, une constestabilité ou une auditabilité des processus algorithmiques.

Premièrement, les biais sont déjà dans le monde physique qui est enregistré sous forme de données.
L’idéologie technique des big data prétend enregistrer passivement le monde tel qu’il est, mais il ne l’objective pas. C’est-à-dire qu’en transcrivant le monde sous forme de données on ne le purifie pas du même coup de tous les rapports de pouvoir, les rapports de domination, les rapports de force qui font que l’état de fait est ce qu’il est. Or, les données transcrivent l’état de fait tel qu’il est sans en transcrire les conditions.
C’est-à-dire que quand on transcrit le monde physique sous une forme de données — d’ailleurs c’est même bien souvent une obligation si on ne veut pas tomber sous le coup de l’application des régimes de protection des données à caractère personnel, ce qui est assez coûteux pour une entreprise, par exemple — eh bien on est obligé d’anonymiser. Anonymiser ça veut dire aussi désindexer, décontextualiser, c’est-à-dire oublier, rendre les données amnésiques de leur source, amnésiques de leurs conditions de production. En rendant les données amnésiques de leurs conditions de production, on les fait apparaître comme des faits neutres, des pures présences ; Derrida parle à cet égard de présence sans existence. C’est-à-dire qu’on ne peut plus rattacher les données à un référentiel originaire par rapport auquel on pourrait évaluer leur validité. Donc déjà là il y a une sorte de divorce, si vous voulez, d’avec l’idée même d’une possibilité de critique par la neutralisation ou la naturalisation de l’état de fait par la transcription sous forme de données.
Ça c’est un premier biais. Ce biais-là est difficile à combattre, il est difficilement curable à moins d’exiger toujours la possibilité de pouvoir accéder à la source de la donnée.
Là se pose toute une question d’éditorialisation des corpus, etc., mais alors on ne pourra plus adhérer à l’idéologie technique des big data qui dit qu’on peut se passer de théorie. On perd quand même tout ce qui a fait un peu le buzz autour de ces big data, mais c’est une voie absolument intéressante et je pense qu’il faut en revenir à ça dans une certaine mesure.

Deuxième type de biais, il tient aux métriques des algorithmes. Quand un algorithme analyse des données, il va accorder un certain poids — je caricature un peu — à certains types de données, un autre poids à d’autres types de données qui proviennent de telle région du monde numérisé ou de telle région de l’univers numérisé. Ces métriques sont décidées. Elles ont été décidées par des ingénieurs en fonction d’objectifs qui ne sont pas toujours très explicités. On pourrait exiger l’explicitation de ces objectifs, c’est ce qu’on appelle la fonction objective d’un algorithme. Expliciter pourquoi on donne plus de poids à tel type de données qu’à tel autre. C’est une manière de rendre l’algorithme non pas transparent mais de rendre les intentions ou la fonction d’algorithme transparente.

Big data, causalité et corrélation

Il y a quand même toute une série de mouvements qui vont dans le sens d’une revendication ou de demandes de plus grande transparence des algorithmes ou une auditabilité ou une intelligibilité ou une interprétabilité des algorithmes. Il y a des travaux plutôt dans le domaine technique pour rendre les algorithmes auditables, etc. On peut le faire dans une certaine mesure, une mesure qui est un peu limitée par les perspectives d’auto-apprentissage justement. Quand vous avez des algorithmes qui deviennent auto-apprenants ça veut dire aussi qu’ils s’émancipent progressivement des programmations qui leur ont été inculquées.
On parle d’apprentissage supervisé. Lorsqu’il s’agit d’apprentissage supervisé les ingénieurs gardent la main sur les jeux de données qu’ils introduisent en entrée, sur les jeux de données qu’ils corrigent pour obtenir le résultat souhaité, etc. Donc là ça reste quelque chose d’assez métrisable.
Quand on parle d’apprentissage non-supervisé dans ce cas-là les algorithmes apprennent d’eux-mêmes en fonction des données auxquelles ils sont exposés. Larry Lessig disait Code is Law, « Le code est la loi », là, finalement, ce n’est même plus le code qui est la loi, ce sont les données, ce sont les données qui enseignent : les données enseignent à l’algorithme. Là, la logique algorithmique devient aussi compliquée et à la limite imprévisible que le monde physique lui-même, que la sauvagerie des faits. Donc ces résultats sont aussi assez imprévisibles, ce qui est intéressant en soi, aussi. Je ne condamne pas du tout les algorithmes, ils peuvent être très intéressants dans la mesure où ils sont équipés, justement, d’une sorte de curiosité automatique, c’est-à-dire que les algorithmes n’ont pas tous les biais que nous avons.
Nous avons des biais perceptuels qui sont liés au fait que nous avons un corps qui est situé dans l’espace et, par exemple, notre champ de vision est borné, donc nous avons toujours un point de vue. Ce point de vue détermine ce qui nous est perceptible, ce qui nous est intelligible, ce qui nous est interprétable.
L’algorithme, par contre, lui vit dans un espace tout autre. Son mode d’existence est complètement différent du nôtre. Il peut voir de façon simultanée ou percevoir ou enregistrer ou calculer, mettre en corrélation des points de données qui sont très éloignés les uns des autres dans l’espace, dont les sources sont très éloignées dans l’espace. L’algorithme, si vous voulez, se meut dans un univers tout autre et peut percevoir des choses qui nous seraient complètement imperceptibles. Donc les algorithmes peuvent être très intéressants dans la mesure où ils font parler le monde, y compris le monde social, d’une manière tout autre que nous en tant qu’êtres humains, avec des points de vue situés, sommes capables de le faire parler. Ça peut être intéressant pour rendre visibles certaines portions du réel qui resteraient sinon inaccessibles, mais ça peut être dangereux aussi dans la mesure où on se suffit, où on se satisferait de la seule corrélation. C’est-à-dire que si on se satisfait de la seule détection automatisée, automatique, de corrélation dans des quantités massives de données, le risque est grand d’interpréter les résultats de façon erronée, c’est-à-dire de penser qu’il peut y avoir des causalités sous-jacentes à des corrélations qui sont détectées entre, par exemple, des données qui ne sont en fait que des bruits. Ça a été démontré mathématiquement notamment par Giuseppe Longo, le mathématicien. Il dit, finalement, que plus les quantités de données s’accroissent, plus statistiquement vous avez des risques de produire des spurius correlations, c’est-à-dire des corrélations abusives entre des choses qui sont corrélées, mais c’est le pur résultat du hasard, c’est-à-dire que la corrélation ne signifie en fait rien, elle n’est donc pas opérationnelle.
En plus vous avez des risques d’erreur d’interprétation des corrélations mêmes. C’est-à-dire que si vous détectez dans un grand ensemble de données que les points A et B se trouvent fréquemment coprésents, vous allez dire qu’il y a une corrélation relativement forte ; dès que A bouge B bouge aussi, donc vous dites qu’il y a une corrélation forte. Mais cette corrélation peut s’interpréter de diverses manières, soit elle s’interprète en disant que c’est A qui cause B, soit on peut dire que c’est B qui cause A, soit c’est C, qu’on n‘a pas aperçu, qui est la cause des deux, qui est la cause de A et B. Donc vous voyez ! Il y a des cas dans lesquels recourir à des algorithmes et à cette logique de corrélation plutôt que d’essayer de trouver la causalité et de comprendre réellement le monde dans lequel on vit peut-être très utile, peut économiser du temps, de l’argent, nous permettre d’avoir un rapport plus granulaire, moins sélectif au monde, donc ça peut être très intéressant. Mais il est des cas dans lesquels se satisfaire de la corrélation est contraire à la plus élémentaire prudence. Je pense par exemple à la black box medecine qui est en train de se développer aujourd’hui dans laquelle, finalement, on fait des essais cliniques non plus en recrutant des participants, des sujets humains, mais en faisant des pures simulations sur des bases de données, des masses de données massives évidemment parce qu’on a énormément de données de santé, c’est le secteur des big data qui croit le plus rapidement aujourd’hui, donc c’est très intéressant. Mais si on ne soucie pas de la causalité, c’est-à-dire des mécanismes physiques qui causent les phénomènes pathologiques, on risque fort, si on en arrive à faire de la prescription de certaines alternatives thérapeutiques à des personnes concrètes, à des personnes en chair et en os, d’aboutir à des risques assez substantiels d’effets secondaires potentiellement dangereux.
Vous voyez qu’il y a des cas dans lesquels on peut se satisfaire d’une pure logique d’optimisation fondée sur de la corrélation. Il y a des cas dans lesquels c’est insuffisant.
Les cas dans lesquels c’est insuffisant, même dans ces cas-là, il n’est pas nécessairement indiqué de se priver totalement des algorithmes. Les algorithmes peuvent être une première indication. La difficulté, dans ce cas-là, c’est ne pas conférer à la prédiction ou à la recommandation algorithmique une force normative qu’elle ne doit pas avoir. C’est-à-dire qu’elle doit réellement laisser la place pour une délibération humaine, pour qu’on puisse prendre en compte les éléments non-numérisés, non-numérisables qui sont notamment l’interprétation que les gens peuvent faire de ce qui leur est arrivé de faire de leur propre comportement, de leur propres intentions, etc., rendre compte de soi-même.

Gouvernementalité algorithmique

Je dirais, pour faire simple, que c’est un mode de gouvernement qui est nourri essentiellement par des données numériques, donc c’est une modélisation du monde, du monde social, qui est fondée plutôt sur des données quantifiables, sur les sortes de phéromones numériques qui surgissent, qui se collectent en temps réel ou qui prolifèrent au niveau du monde physique plutôt que sur des normes sociales, politiques, idéologiques préétablies. Donc c’est une sorte de gouvernement qui a des prétentions à une sorte d’immanence. C’est comme si c’était le réel qui se gouvernait lui-même à travers les données. Les données qui, dans cette idéologie des big data, une idéologie technique des big data, passe pour être, en quelque sorte, le langage des choses elles-mêmes, donc qui prétendent nous dispenser de toute interprétation, de toute transcription. C’est comme si c’était le monde qui parlait spontanément à travers les données.
Je disais que c’est un mode de gouvernement qui est nourri essentiellement de données, on parle même de données brutes. Quand on dit « données brutes », ça paraît encore un peu plus spontané, alors que les données brutes sont toujours produites et les données ne sont pas des faits, elles sont toujours des effets, des rapports de force, de domination, de situations qu’on n’a pas changées alors qu’on aurait pu les changer. Donc il y a une sorte de naturalisation ou de neutralisation des faits qui en passe par cette transcription du monde physique sous une forme numérique, fragmentée, décontextualisée, désindexée, anonymisée, donc la fabrication des données brutes. Donc nourri essentiellement de données brutes.
Ce qui change, se fondant plutôt sur des données sur la détection de patterns ou de modèles, c’est-à-dire la détection de corrélations au sein de quantités massives de données, plutôt que sur des catégories qui correspondent à des groupements humains socialement éprouvés.
Plutôt que de gouverner les gens en fonction de leur appartenance par exemple à un groupe ethnique déterminé, à une tranche d’âge déterminée ou à une catégorie socioprofessionnelle déterminée, eh bien on va les gouverner, c’est-à-dire qu’on va personnaliser les interactions gouvernementales, les interactions sécuritaires, les interactions commerciales qu’on peut avoir avec eux à travers la détection de leur profil – profil de consommateur, profil de fraudeur potentiel, profil de terroriste potentiel. Donc on voit là aussi un glissement. Ce ne sont plus non seulement les données qui comptent, les données numérisées qui comptent, mais en plus il y a un glissement. La cible de cette forme de gouvernement n’est plus l’actualité, mais c’est la potentialité, ce dont les corps sont capables, ce dont les gens sont capables, etc.
On voit bien, finalement, un profil ce n’est personne, ce n’est personne actuellement. Un profil c’est une sorte d’espace spéculatif qui désigne des opportunités et des risques dont les formes de vie, impersonnelles, sont porteuses.
Ce mode de gouvernement paraît à la fois très objectif dans le sens où, précisément, il n’en passe plus par les catégories prédéterminées, idéologiquement marquées, toujours politiquement débattables, les catégories préétablies, mais se désintéresse complètement de ces catégories et se désintéresse aussi de qui sont les gens. En fait, c’est un mode de gouvernement qui ne gouverne plus les individus en les individualisant, en les identifiant, en les traquant personnellement. C’est pour ça que la notion de données personnelles dans ce mode de gouvernement perd un peu en pertinence au profit de données anonymes qui sont corrélables avec d’autres données anonymes de façon à former des profils de comportement. Ce mode de gouvernement se désintéresse à la fois des individus et à la fois des groupements dans lesquels ils se situent et des groupements qui sont signifiants pour eux.
Finalement ce désintérêt à la fois pour la singularité des vies et pour leur inscription dans des contextes collectifs, c’est ce qui confère à ce mode de gouvernement à la fois une aura d’impartialité très grande mais aussi une sorte d’incontestabilité, une très grande difficulté qu’on peut avoir à contester des décisions qui sont prises sur base de détection d’opportunités et de risques, c’est-à-dire de personnes en fait.

Stand de sensibilisation au Logiciel Libre - 19 septembre 2020 à Figéac

APRIL - ven, 09/18/2020 - 19:04
Start: 19 Septembre 2020 - 12:00End: 19 Septembre 2020 - 18:00

Lors de l'évènement Faites des Alternatives qui aura lieu à Figeac (Lot) samedi 19 septembre de 12 h à 18 h, deux membres de l'April tiendront un stand de sensibilisation et information sur les logiciels libres.

Intelligences artificielles à l'heure du coronavirus - France Inter

APRIL - ven, 09/18/2020 - 12:56


Titre : Intelligences artificielles à l'heure du coronavirus
Intervenant·e·s : Laurence Devillers - Antonio Casilli - Nathalie, voix off - Dorothée Barba
Lieu : L'été comme jamais - France Inter
Date : août 2020
Durée : 35 min [NB : Le coup de fil à la presse, Répondeur d'Inter et le Conseil cinéma sont des parties non transcrites]
Écouter ou enregistrer le podcast
Site de présentation de l'épisode
Licence de la transcription : Verbatim
Illustration : Mental health - Licence Creative Commons CC0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

De visioconférence en téléconsultation médicale, la crise sanitaire a changé notre rapport aux algorithmes. De quelle manière le coronavirus et le confinement ont changé notre vision des intelligences artificielles ? Quels changements sont à prévoir pour le monde de demain ?

Transcription

[Clip d’introduction]

Dorothée Barba : Dis Siri, ai-je raison de m'inquiéter ? Comme beaucoup de monde en ce moment, j’ai peur d'une deuxième vague de Covid-19. J’ai peur d’un éventuel reconfinement. J'avais besoin de savoir. Alors j’ai demandé à l'assistant vocal d'Apple, qui a réponse à tout : « Dis Siri, y aura-t-il une deuxième vague ? » En vrai, j'espérais un peu qu'il ne comprendrait pas et que sa réponse serait amusante, qu’il me parlerait d'océan et de vagues à surfer. Mais non, Siri a compris ma question. Sauf qu’en guise de réponse, il me renvoie sur des articles qui datent de juin dernier, sur la crainte d’une deuxième vague. L’assistant vocal, en l’occurrence, ne surfe pas sur l’actu brûlante ! Merci Siri, mais tu ferais mieux de me parler de l'écume des vagues.
Toutes les crises offrent l’occasion de se poser les bonnes questions. Celle du covid doit assurément nous permettre d’interroger l’intelligence artificielle qui est déjà partout dans nos vies. Y a-t-il un effet covid sur notre relation avec elle ? Que peut-elle pour nous cette intelligence artificielle, notamment sur le plan médical ? Mais quels risques implique-t-elle aussi ? Quelles limites doit-on fixer pour des machines plus éthiques ?
N’hésitez pas à nous poser toutes vos questions à la page de L’été comme jamais sur franceinter.fr ou sur l’application mobile de France Inter, deux spécialistes sont là pour vous répondre. « Intelligences artificielles à l’heure du coronavirus ». Soyez les bienvenus

Voix off : Dorothée Barba, 9 heures 11 heures sur France Inter.

Dorothée Barba : Avec deux invités en direct, deux spécialistes de l’AI ou de l’IA, l’intelligence artificielle. Bonjour Antonio Casilli.

Antonio Casilli : Bonjour Dorothée Barba.

Dorothée Barba : Bienvenue. Vous êtes sociologue, professeur à Télécom Paris, chercheur à l’EHESS [École des hautes études en sciences sociales]. Vous avez fait paraître l’an dernier au Seuil un livre intitulé En attendant les robots – Enquête sur le travail du clic. Comment comprenez-vous les réponses de Siri, notamment qu’elles soient si datées sur la deuxième vague ? Est-ce que c’est une façon de ne pas trop se mouiller, Antonio Casilli ?

Antonio Casilli : Finalement, il faut aussi interpréter Siri comme une base de connaissances et cette base de connaissances est mise à jour régulièrement, c’est-à-dire que Siri reçoit des réponses types à des questions très courantes.

Dorothée Barba : Il y avait des articles beaucoup plus récents sur la deuxième vague.

Antonio Casilli : Tout à fait. Et, en même temps, on est dans une situation dans laquelle nos propres connaissances sur le virus, sur la situation et sur les mesures contre le virus changent chaque jour ou chaque semaine. Donc afin d’éviter de proposer une réponse certes plus actuelle que celle que Siri vous a proposée, qui remonte au mois de juin, mais peut-être moins stable, moins solide du point de vue scientifique ou politique, il vous a donné cette réponse-là.

Dorothée Barba : Depuis les studios de France Bleue à Bayonne, j’accueille Laurence Devillers. Bonjour à vous.

Laurence Devillers : Bonjour à vous.

Dorothée Barba : Bienvenue. Professeure en intelligence artificielle à la Sorbonne à Paris, vous êtes chercheuse au laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Vos derniers ouvrages s’intitulent Des robots et des hommes et plus récemment Les robots émotionnels aux Éditions de l’Observatoire ainsi que La souveraineté numérique dans l’après-crise. Et vous, Laurence Devillers, que pensez-vous de cette réponse un peu vieillotte de Siri sur la deuxième vague ?

Laurence Devillers : En fait, Siri est un système qui travaille sur du traitement automatique du langage, qui est mon domaine de recherche, et ce n’est pas très malin. Il ne comprend rien à ce qu’il répond et ce n’est pas étonnant que même en faisant une recherche sur Internet il ne soit pas capable de trouver forcément le bon article. Il s’intéresse juste à la composition des mots présents dans l’article, donc il peut très bien vous sortir un vieil article comme un article plus nouveau sans toutefois avoir conscience de ce qui est en train de se passer. Il n’a aucune compréhension. C’était amusant de vous entendre dire « il n’a pas su surfer sur l’actualité ».

Dorothée Barba : L’intelligence artificielle n’est pas très maligne. On a un premier élément de réponse. On se plonge avec vous deux dans cette discussion dans un instant, mais d’abord, comme tous les jours, un coup de fil à la presse et le mardi la parole est à Causette. Bonjour Isabelle Motrot.

[Coup de fil à la presse, partie non transcrite]

Dorothée Barba : Dans quelques instants on serre la pince à des robots. L’intelligence artificielle au temps du coronavirus avec vos questions et commentaires à la page de L’été comme jamais sur notre site internet. Vous écoutez France Inter, en voilà une bonne idée ! Il est 10 Heures et quart.

Pause musicale : Ce qui restera par Vincent Delerm.

Dorothée Barba : C’était Vincent Delerm, Ce qui restera.

Voix off : France Inter, L’été comme jamais

Dorothée Barba : Deux éminents spécialistes de l’intelligence artificielle sont mes invités jusqu’à 11 heures, Laurence Devillers en duplex de Bayonne et Antonio Casilli ici en studio.
J’aimerais que nous commencions par la santé, même si ce n’est pas évidemment le seul sujet lorsqu’on parle des liens entre le covid et les algorithmes.
Laurence Devillers, la technologie est-elle au cœur de la bataille contre ce virus ?

Laurence Devillers : Je pense que vous avez raison, oui, c’est assez au cœur. On a déjà des outils numériques qu’on utilisait, mais on a vu une amplification forte parce que, évidemment, être proches c’est dangereux en ce moment, donc la distanciation qu’on peut avoir avec des robots, est intéressante.
Quels sont les usages ? Je dirais que c’est à la fois pour protéger, tester, isoler et anticiper, en fait, qu’on va utiliser ces outils, par exemple pour la recherche de vaccins, pour comprendre avec qui vous êtes en contact et, si vous êtes contaminé par le virus, alerter tout le monde. Ce sont des informations, donc c’est à la fois des statistiques pour du long terme, c’est aussi de la télémédecine, on a vu un bond incroyable en télémédecine, dont vous parliez tout à l’heure, et qui est très intéressant.
Tous ces outils, en fait, étaient pour la plupart encore peu utilisés, ils vont le devenir beaucoup et c’est important de comprendre qu’ils vont contribuer pour nous à concilier les objectifs sanitaires avec les objectifs sociaux et économiques. On a gardé des liens sociaux grâce à des Zoom qu’on faisait en famille, à des Zoom avec son médecin pour suivre finalement la maladie. Par exemple moi j’ai eu le covid et j’ai été très contente d’avoir effectivement tous ces liens possibles.
Il faut comprendre que toutes ces technologies sont à notre service, mais il faut pouvoir s’en servir correctement.
Donc elles font apparaître effectivement, comme vous le disiez au début Barbara, des tensions éthiques. C’est sur cela, je pense, qu’il faut réfléchir dans la société, tous ensemble, pour essayer de comprendre quels sont justement les cadres, les protocoles à mettre en place.

Dorothée Barba : Avant d’en venir peut-être aux tensions éthiques, un mot sur ce service hospitalier en Chine qui a été intégralement robotisé, inauguré au printemps. Est-ce une solution à vos yeux ?

Laurence Devillers : C’était une solution sur la distanciation. Il y avait beaucoup d’utilité à la fois pour apporter des repas aux gens qui étaient malades, désinfecter les lieux, donc le robot servait à de multiples tâches.
Il est intéressant, quand même, de se poser la question de leur utilité avec des humains. Il ne s’agit pas de remplacer les humains. Il s’agit de les remplacer pour certaines tâches qui sont pénibles, difficiles ou à risque comme on l’a vu dans la pandémie, à cause de ce problème de virus qu’on peut attraper.
Il me semble que l’expérimentation qui a été faite en Chine est intéressante en cela. Il n’est pas souhaitable de reproduire cela sans une éducation forte à la fois des soignants et des patients pour qu’on comprenne bien l’utilité, la complémentarité avec l’humain. En fait, l’humain est au centre de tout cela. Je travaille sur ces objectifs de robots sociaux, de robots pour aider les personnes dépendantes ou aider les malades ou aider les personnes handicapées, toujours dans le sens où l’humain est au centre. C’est comme ça qu’on développe cela. Les positions extrémistes en disant « non, c’est terriblement inutile » ou « allons totalement vers un monde robotisé » ne sont pas souhaitables.

Dorothée Barba : On imagine bien les réactions ulcérées que ça peut susciter dans le grand public, l’idée de voir des robots remplacer les soignants et les soignantes.

Laurence Devillers : C’est pour ça qu’ils ne remplacent pas. Ils sont incapables, comme je disais tout à l’heure avec Siri. Il y a un problème fondamental de technologie qui ne sera pas résolu si facilement. Le sens commun, la compréhension qu’on affine, le fait qu’on a un corps, qu’on ressent les choses, la machine en est totalement dépourvue. Ce n’est pas juste avec des modèles qui vont acquérir des données, même en grande quantité, qu’on va remplacer l’intuition, la créativité de l’humain, son imagination et sa façon de s’adapter très rapidement à des situations.
Donc je crois que cette idée, en tout cas cette peur qui existe, vous avez raison, de remplacement, elle est assez peu réelle. Elle fait partie d’une sur-capacitation que l’on pousse, que l’on porte à ces machines. En fait, on ferait bien de s’intéresser plus à la manipulation qu’elles peuvent avoir sur nous et qui est vraiment le sujet de mes recherches actuellement avec cette idée de « si je détecte l’affect, si je suis capable de faire une machine qui simule une certaine empathie, qui singe l’humain, quelles vont être les conséquences ? Quelles vont être les possibilités de manipulation ? ». On voit très bien en santé qu’il y a d’énormes progrès qu’on pourrait faire avec ces sortes d’outils pour aider, accompagner. On voit aussi terriblement un monde économique de business qui s’accapare ces technologies, sans garde-fous, sans régulation.
En tout cas, on est en train de construire dans le monde de la recherche et plus largement avec le gouvernement des comités d’éthique. Je fais partie d’un comité d’éthique [Comité National Pilote d'Éthique du Numérique] qui est sous le Premier ministre, une sorte de CCNE [Comité consultatif national d'éthique], que vous connaissez maintenant sur la bioéthique, dans le numérique et également un partnership en AI, c’est-à-dire un comité international qui regroupe 15 pays, qui a été monté par le président Macron et le Premier ministre Trudeau au Canada, pour faire qu’il y ait cette concertation internationale sur ces sujets. Prendre conscience, trouver les bonnes régulations et arrêtons d’avoir peur. Il faut utiliser ces machines le mieux possible.

Dorothée Barba : Au chapitre santé toujours, Antonio Casilli, venons-en au Health Data Hub1. C’est une plateforme qui recense les données médicales des Français, les données du ministère de la Santé. L’hébergement a été confié à Microsoft. Que pensez-vous de ce choix ?

Antonio Casilli : Il a été défendu par le gouvernement comme un choix commercial, comme un choix qui était aussi dû à certaines limitations des partenaires possibles en France, qui n’étaient pas prêts à assurer la puissance de calcul, de stockage nécessaire. Toujours est-il qu’il nous met face au paradoxe du discours français sur la souveraineté numérique qui est un sujet qui est débattu récemment et qui, grosso modo, revient d’une part à dire qu’il faut défendre certains intérêts qui sont de nature politique, qui sont aussi des valeurs politiques, qui sont aussi des intérêts commerciaux de la France, mais, de l’autre côté aussi de s’opposer à la surpuissance de certaines grandes entreprises qui sont dans certains cas, du moins pour notre partie du monde, souvent des entreprises de la Silicon Valley. Donc on se trouve face à ce type de problème.
Le Health Data Hub représente peut-être l’instanciation, l’exemplification de ce type de paradoxe parce que d’un certain point de vue le gouvernement français insiste beaucoup sur le fait de défendre cette souveraineté numérique et, de l’autre côté, parfois, doit accepter les compromis. Ça c’est, si on veut, la vision possibiliste et qui n’est pas véritablement critique de cette manœuvre. La manière critique d’envisager ce problème revient à dire que derrière ce discours de la souveraineté se cache une convergence d’intérêts de certains gouvernements, certaines administrations, certains pays y compris le nôtre et, effectivement, les intérêts des grandes entreprises capitalistes de la Silicon Valley. Grosso modo, défendre la souveraineté numérique au nom aussi de la défense des données des citoyens, parfois revient aussi tout simplement à chercher à faire exactement ce que la Silicon Valley fait, mais à la française.

Dorothée Barba : Qui vous dit que ce serait moins grave si j’ose dire, Antonio Casilli, un contrôle de nos données par des entreprises européennes ?

Antonio Casilli : Le problème est exactement quelle est la spécificité de ces entreprises européennes ? Est-ce que nous avons des entreprises européennes qui sont, par le fait même d’être européennes, plus éthiques, plus respectueuses de certaines lois ? Il y a certainement certaines contraintes qui pèsent sur certaines entreprises, je pense par exemple des contraintes de nature financière, de nature fiscale. Toujours est-il qu’on voit que la régulation de ces entreprises est loin d’être un processus linéaire. C’est un aller-retour entre les grands groupes industriels et les personnes qui gouvernent, les législateurs européens, et ce type de négociation ne se solde pas toujours dans le meilleur sens, au sens de respect des intérêts des citoyens.

Dorothée Barba : Laurence Devillers, comment l’Europe peut-elle reprendre le contrôle de l’industrie numérique et de l’intelligence artificielle ?

Laurence Devillers : Il faudrait déjà faire confiance, en fait, à la science, à la technologie. On a une force de frappe non négligeable sur ces technologies en Europe. On a aussi déjà prouvé avec les législations qu’on était capables d’être créatifs avec la GDPR2 [General Data Protection Regulation] qui nous était pas mal enviée par les Américains d’ailleurs. Je pense qu’il faut continuer dans ces voies-là. Je suis toujours étonnée du paradoxe de la privacy telle qu’elle est énoncée souvent.

Dorothée Barba : De la vie privée.

Laurence Devillers : C’est-à-dire qu’il a beaucoup de personnes qui ont eu une position très forte sur la possibilité de perte de liberté à cause, justement, d’une souveraineté numérique qui viendrait de l’Europe ou de la France, alors que ce sont des personnes qui donnent leurs données sans problème sur Facebook, Twitter, Internet en général, qui sont des réseaux qui sont tenus par les GAFA.

Dorothée Barba : Nous sommes pétris de contradiction en la matière !

Laurence Devillers : J’ai écrit effectivement un petit livre sur la souveraineté numérique dans l’après crise montrant qu’il fallait faire très attention et que, effectivement, les GAFA étaient en train d’en prendre le lead ou, en tout cas, posaient des jalons très forts sur beaucoup de domaines que sont l’éducation, la santé – vous avez parlé du Health Data Hub –, mais aussi sur l'éducation, aussi sur le grand âge. J’ai vu que Facebook a proposé des iPad dans les Ehpad. Donc il y a cette idée de mettre en pied dans la porte sur beaucoup de sujets et de continuer à être, finalement, le tonton d’Amérique qui apporte finances, meilleurs sujets, etc.
Aux États-Unis, le gouvernement privilégie, en fait, les entreprises américaines. En France, nous, on privilégie l’excellence et le rapport qualité/prix. Il est étonnant quand même qu’on ne soit pas capables aussi de privilégier le terreau européen. Je pense que c’est ça qu’il faut arriver à comprendre. Comment on peut apporter des solutions européennes qui ne seront peut-être pas aussi développées que les solutions américaines à l’instant t, mais qui, dans deux ans, pourraient rivaliser, si on ne fait pas un jour ce choix.

Dorothée Barba : Laurence Devillers, pour le dire très concrètement, est-ce que vous diriez que c’est dangereux que les données du ministère de la Santé française soient hébergées par Microsoft ?

Laurence Devillers : Bien sûr. On l’a dit. Dans le comité d’éthique où je suis on fait très attention. Je connais aussi beaucoup les chercheurs qui travaillent sur ce Health Data Hub, qui sont excellents. Il y a un vrai sujet, en fait, de gouvernance et je pense que c’est un des sujets dont on va parler dans le GPAI [Global Partnership on Artificial Intelligence] dont j’ai parlé tout à l’heure, ce comité d’éthique international, on va en parler très sérieusement. Dans ce comité sont aussi présents des industriels. Il n’est pas question, si vous voulez, de ne faire que du pro-français ou du pro-européen, il faut rester dans une interopérabilité et une ouverture, mais il est important qu’on soit au niveau, qu’on ait suffisamment de données pour être au niveau et cela n’est pas possible si on les donne tout le temps à des supports, des plateformes étrangères qui vont continuer à avancer.

Dorothée Barba : Nous reprenons ces échanges dans un instant, car il est 10 heures et demie. C’est l’heure du Répondeur d’Inter. Les auditeurs et auditrices réagissent à nos programmes.

Voix off : Le répondeur d’Inter, 01 56 40 68 68.

[Le répondeur d’Inter, partie non transcrite]

Pause musicale : Living in a Ghost Town par The Rolling Stones.

Dorothée Barba : C’est un morceau né pendant le confinement, Living in a Ghost Town par The Rolling Stones sur France Inter.

Voix off : France Inter, L’été comme jamais.

Dorothée Barba : « Les intelligences artificielles au temps du coronavirus » avec Laurence Devillers et Antonio Casilli.
Antonio Casilli vous dénoncez depuis des années la prophétie selon laquelle des robots vont remplacer les hommes et les femmes au travail. Vous répétez que c’est un mythe, qu’il y a des travailleurs derrière les intelligences artificielles. Quel est l’effet de cette crise sanitaire que nous traversons sur cette idée d’automatisation des tâches ?

Antonio Casilli : Tout d’abord c’est une excellente occasion pour les thuriféraires du remplacement mécanique, les gens qui vendent de l’intelligence artificielle, une occasion de propagande parce que c’est le moment de réactualiser tout un tas de leurs prophéties. Là on voit effectivement des personnes qui étaient des porteurs de cette idée selon laquelle les robots vont prendre nos jobs et vont nous remplacer véritablement qui, après le covid, au nom de la distanciation sociale, au nom du besoin de relancer l’économie, revendent leur recette.
Le problème est qu’on voit aussi avec le covid, avec le confinement en particulier, d’une manière assez paradoxale, que les personnes qui étaient auparavant les invisibles de cette révolution technologique deviennent de plus en plus visibles. Des personnes qui travaillaient, je ne dis pas dans l’ombre parce qu’elles sont quand même connues, elles sont étudiées même si on ne connaît pas toujours exactement le contour de leur activité, deviennent plus visibles. Je vous donne un exemple parmi d’autres, vous avez cité Siri, on pourrait citer aussi Facebook ou Twitter. Quel est le point commun entre Siri et Facebook ? Eh bien ces deux grandes solutions technologiques s’appuient sur des personnes qui, finalement, doivent calibrer les algorithmes, les intelligences artificielles. Par exemple pour Siri ce sont évidemment les personnes qui calibrent les réponses mêmes que Siri donne.

Dorothée Barba : En quoi le confinement les empêche-t-il de calibrer ?

Antonio Casilli : Le problème est que ces personnes ne peuvent pas toujours travailler depuis chez elles parce que, d’abord, elles manient de données sensibles, des données personnelles et, en plus, elles sont liées à ces entreprises ou plutôt aux sous-traitants de ces entreprises par des non disclosure agreements, c’est-à-dire des clauses de confidentialité particulièrement contraignantes. Donc elles doivent travailler dans un bureau et si, en plus, vous ajoutez que c’est souvent dans des pays qui ont été touchés par des mesures de confinement, je pense par exemple à l’Irlande, là où se trouvent les modérateurs ou les calibrateurs, on va dire, de Siri pour Apple. Je pourrais aussi citer les modérateurs de Facebook. Les modérateurs de Facebook, finalement, réalisent une activité qui est presque la même : ils filtrent des contenus problématiques, ça c’est certain, mais en même temps ils entraînent des algorithmes qui apprennent à leur tour à modérer automatiquement.

Dorothée Barba : C’est compliqué d’aller modérer des contenus problématiques, violents, érotiques ou que sais-je depuis chez soi ?

Antonio Casilli : Oui. C’est le problème qui a été pointé par les plateformes mêmes ; Twitter, Facebook, YouTube ont toutes annoncé au début des mesures de confinement que leur modération allait marcher forcément moins bien parce que les modérateurs étaient chez eux et ne pouvaient pas forcément toujours travailler sur ces données sensibles.

Dorothée Barba : On va entendre un exemple très concret, votre enquête sur les travailleurs du clic, Antonio Casilli, a été adaptée en documentaire, série documentaire en quatre épisodes à voir sur france.tv/slash/, plateforme gratuite de France Télévisions. On y découvre notamment Nathalie dont la voix a été modifiée pour des raisons de confidentialité, d’ailleurs ce n’est sans doute pas son prénom. Nathalie vit en France, elle travaille de chez elle et elle fait partie de l’armée de ceux qui entraînent Google.

Nathalie, voix off : Je me connecte via une adresse Gmail qui a été créée pour ce travail. J’atterris sur un site spécifique où les tâches sont distribuées. Là, par exemple, on est sur cette tâche de comparaison d’un mot clef et d’une recherche d’une personne et on a « La moutarde de Dijon » et « Moutarde de Dijon », « La moutarde Dijon » d’ailleurs, il n’y a pas d’article, et on nous demande de savoir si finalement ça a le même sens pour la recherche Google. On considère, bien évidemment, que ça a le même sens. Une autre, pareil, même chose : « accrocher tableau sans percer », « comment accrocher des tableaux sans percer » ; on considère, bien évidemment, que la personne recherche la même chose. Donc on aide l’algorithme à s’améliorer.
Je n’ai pas de contrat réel. À tout moment je peux m’arrêter de travailler, d’ailleurs sans les prévenir, chose que, bien évidemment, je ne ferai jamais, comme eux-mêmes peuvent stopper la collaboration quand ils le souhaitent, sans préavis.

Dorothée Barba : Voilà ! Un algorithme ça s’entraîne comme un grand sportif et Nathalie fait partie des entraîneurs, des coachs.
Cette crise sanitaire, Antonio Casilli, offre-t-elle une nouvelle occasion de constater que ça ne marche pas tout seul Google ?

Antonio Casilli : Oui, certainement, surtout si on regarde les chiffres annoncés par les plateformes qui s’occupent de réaliser ce type d’entraînement. On voit d’abord qu’énormément de personnes s’inscrivent sur ces plateformes et souhaitent travailler, souhaitent devenir coachs d’algorithmes.

Dorothée Barba : Dans ces conditions de rémunération assez problématiques, soit dit en passant.

Antonio Casilli : Assez problématiques, ça c’est clair. Effectivement il y a par exemple une de ces plateformes, l’une des plus importantes au monde qui s’appelle Appen3, peu connue du grand public, qui a eu un bond de 31 % de ses effectifs. 31 % veut dire que, évidemment, il y a 31 % de personnes en plus, davantage de personnes qui veulent travailler, mais en même temps ces personnes, parce qu’elles sont en concurrence entre elles, déterminent une baisse des rémunérations. Il ne s’agit pas de salariés, il faut les envisager, grosso modo, comme des free-lance qui sont en compétition sur les mêmes tâches. Par ailleurs ce sont des micro-tâches, des tâches très petites : regarder une page, écouter une petite conversation, un extrait de conversation et ainsi de suite. En plus, on remarque que depuis l’arrivée du virus, on a eu une réorientation de ces grandes plateformes sur, figurez-vous, des applications de santé publique. On voit que le secteur qui auparavant était celui qui attirait davantage de microtravailleurs, de ces coachs d’algorithmes, qui auparavant était le secteur automobile a été désormais remplacé par le secteur santé.

Dorothée Barba : Un mot sur StopCovid. Antonio Casilli. Que pensez-vous de cette application censée lutter contre la propagation du virus et qui rencontre, disons-le, un succès limité, pour ne pas dire un fiasco ?

Antonio Casilli : C’est une application qui, tout d’abord, fait partie de toute une galaxie de tentatives de solutions technologiques ou plutôt d’outils technologiques pour lutter contre le covid. Dans d’autres pays on a eu, par exemple, des applications qui cherchaient à réguler la quarantaine, donc qui vérifiaient que les gens respectaient bien la quarantaine, qui sont effectivement problématiques.

Dorothée Barba : En termes de libertés individuelles.

Antonio Casilli : En termes vraiment carrément de surveillance. Ce n’est pas le cas de la France, elle n’a pas mis en place ça. Dans d’autres cas on a eu des applications qui donnaient des informations de santé et là aussi StopCovid ne fait pas ça. StopCovid fait quelque chose de très précis c’est-à-dire ce qu’on appelle, dans le jargon, du contact tracing, c’est-à-dire du traçage de contacts, et donne des alertes. Autour de cela il y a eu une énorme controverse, une controverse technologique et politique à laquelle j’ai participé. J’ai fait partie des gens qui s’opposaient à la solution française pour des tas de raisons qui relevaient autant, effectivement, de certains risques pour la vie privée mais plus encore je considérais qu’il y avait un problème interne de discrimination possible parmi les gens qui l’adopteraient et les gens qui ne l’adopteraient pas.
Ce qui s’est passé par la suite c’est que, malgré cette grande controverse, le gouvernement a fait passer cette application un peu à marche forcée et la situation actuelle avec, ce que vous disiez, une adoption très limitée ; je pense que ça fait 3 % de la population française et à peine 20 cas détectés sur plusieurs mois d’application. Ce scénario, pour moi, est en même temps le meilleur et le pire possible. Le meilleur parce que d’un certain point de vue certains des risques et des menaces que nous avions identifiées, moi et d’autres, ne se sont pas réalisées à cause, effectivement, de cette faible adoption. Le pire possible est que, effectivement, nous nous retrouvons dépourvus d’une solution véritablement efficace. Je considère personnellement que la solution efficace est une solution qui est d’abord enracinée d'abord dans l’action humaine. Le contact tracing, c’est-à-dire le fait de tracer des contacts, était fait auparavant par des êtres humains et continue d’être fait par des êtres humains. On a aussi un problème en termes d’investissement et désinvestissement de fonds publics pour financer ce type de politique. Au niveau international, les applications comme StopCovid ont déterminé un désinvestissement fort sur des solutions qui seraient plus enracinées dans la santé publique et dans des êtres humains.

Dorothée Barba : Je me tourne à nouveau vers Bayonne où Laurence Devillers est en duplex depuis France Bleue Pays Basque. Vous travaillez beaucoup, Laurence Devillers, sur la reconnaissance des émotions par la voix. On s’imagine souvent que les émotions c’est ce qui nous distingue des machines, finalement pas tellement, et ça pose beaucoup de questions éthiques, Laurence Devillers.

Laurence Devillers : Oui, effectivement. Je m’intéresse à la reconnaissance des émotions que vous exprimez à travers la voix, la musique de la voix principalement. Il y a aussi des travaux sur les expressions du visage ou les gestes, mais ce ne sont évidemment pas les émotions réelles, ce ne sont que l’expressivité de la personne qu’on va chercher à détecter, si vous avez l’air content, pas content.
C’est plus complexe lorsqu’il s’agit en fait de l’inverse. C’est-à-dire que la machine singe l’humain, vous livre une expressivité émotionnelle et elle peut vous manipuler assez facilement avec cela. Ça fait penser au film Her, par exemple, où quelqu’un s’attache à une machine, tombe amoureux d’une machine.
Il y a effectivement des vrais sujets éthiques liés à l’isolement des gens. Ce sont des sujets porteurs industriellement et on le voit avec Alexa Amazon, Google Home, etc. qui essaient de développer, en fait, des systèmes pour les personnes vulnérables et isolées, qui seraient empathiques, aidants, etc.
Il est important de comprendre que pour la santé, pour des aspects de suivi par exemple de dépression, pour des pathologies comme les troubles bipolaires ou la maladie d'Alzheimer, on peut trouver un intérêt réel à avoir une machine qui comprenne, qui détecte quelques expressivités.
Maintenant le niveau réel, l’état de l’art de ces systèmes est très bas encore, on peut le dire.

Dorothée Barba : Très bas pour l’instant, on ne sait pas encore bien faire, c’est ce que vous dites.

Laurence Devillers : En général. il y a 30 % d’erreurs, ce qui est énorme. En fait les émotions, comme vous l’avez très bien dit, c’est propre à l’humain, c’est propre à son ressenti physique que n’a pas la machine. On voit bien qu’on en est très loin. Et ces systèmes qui font 30 % d’erreurs peuvent être utilisés malgré tout pour le recrutement ainsi que d’autres applications que je trouve assez peu éthiques.

Dorothée Barba : Justement le recrutement, un chapitre intéressant notamment à l’heure où le télétravail se généralise. Certaines entreprises françaises utilisent des logiciels qui examinent la voix du candidat ou de la candidate.

Laurence Devillers : Oui. J’ai découvert cela aussi. Ils ne vont pas forcément chercher les émotions mais la fluidité, le champ lexical, c’est-à-dire est-ce que vous avez des mots sophistiqués, est-ce que vous êtes capable d’avoir une pensée riche, une expression riche ? Et puis dans la musique de la voix : est-ce que vous êtes à l’aise, extraverti. C’est terriblement discriminant : si votre enfant, par exemple, a un cheveu sur la langue ou si vous est d’origine étrangère avec un accent vous ne serez évidemment pas forcément dans les leaders.
On peut imaginer l’inverse, je crois que c’est possible de tricher avec ces machines, c’est-à-dire que si, par exemple, vous prononcez des mots extrêmement techniques à la suite, liés évidemment à l’emploi que vous cherchez et puis que vous avez l’air très sûr de vous, vous risquez de passer dans les premiers, voyez-vous ! Ce n’est pas pour cela que vous serez efficace pour le travail demandé.
Il y a ce biais terrible de passer par des machines alors qu’on cherche une richesse et une différenciation de profils. Même si ça facilite effectivement pour les recruteurs le tri des dossiers, je pense que c‘est vraiment à vérifier de très près. C’est un de ces sujets qu’on va regarder de très près pour vérifier le consentement. On nous dit qu’on demande le consentement des gens, mais vous voyez, quand vous cherchez un poste, vous dites bien sûr que je vais donner mes données. La transparence de ces systèmes : comment mesurent-ils et quelles caractéristiques vont-ils chercher ? Ce n’est pas du tout évident. Et puis est-ce qu’ils ont fait, par exemple, des essais sur le fait que quand je dis que je ne suis pas consentante est-ce que je peux quand même obtenir un job dans cette boîte ? C’est intéressant à savoir. Est-ce qu’on est vraiment libre de refuser d’utiliser ces systèmes ?
Il y a aussi un autre fait qui est important à dire, je pense, c’est la sous-représentation féminine, souvent. Comme on utilise des corpus de données venant des recrutements précédents, eh bien par exemple dans l’informatique on ne va se retrouver qu’avec des profils masculins en grande majorité, si on ne fait pas attention.

Dorothée Barba : Ça peut créer de la discrimination à l’embauche.

Laurence Devillers : J’ai toujours une petite phrase sur les femmes que j’aimerais bien vous dire quand même.

Dorothée Barba : Allez-y !

Laurence Devillers : Dans ce domaine de l’IA et du numérique en gros 80 % des codeurs et des personnes qui optimisent ces systèmes, qui mettent des modélisations de nos façons de parler et de nos façons de se comporter socialement sont des hommes. Et 80 % en fait des systèmes qui nous parlent – la parole est aussi le propre de l’humain, a une influence considérable sur les autres – eh bien ce sont des entités qu’on féminise avec des prénoms féminins – Sofia, Alexa – avec des figures féminines quand elles sont personnifiées, avec des corps féminins lorsqu’il s'agit de robots. Cela est assez dangereux si on regarde ça à un niveau macro dans la société. Que veut dire la représentation de la femme à travers ces machines si n’y prend pas garde ? Ce sont des assistantes assez bêtes pour l’instant, la sémantique est évidemment un des grands sujets de recherche très complexe, donc on peut les éteindre quand on veut.

Dorothée Barba : Intelligence artificielle pas tellement intelligente donc, pas tellement artificielle non plus et Alexa n’est pas une femme, voilà ce qu’on retient, Antonio Casilli.
Dernière question, très rapidement, sur la collecte des données. On a tendance parfois à penser que ça n’est pas si grave de livrer gratuitement ses données parce qu’on n‘a rien à cacher. Que répondez-vous à cela ?

Antonio Casilli : Que c’est discours décidément dangereux. Si quelqu’un vous dit « ne t’en fais pas, si tu n’as rien à cacher tu n’as rien à craindre ». Si c’est dans un film, c’est normalement le type de mot ou de phrase qui est dans la bouche de quelqu’un d’extrêmement dangereux, un tyran, un autocrate. Le problème est que peut-être qu’on n’a rien à craindre par rapport à aujourd’hui, mais on ne sait pas quels seront les usages futurs de ces données et surtout on ne sait quels sont les croisements, les appariements qu’on va faire avec ces données. Une donnée qui peut être anodine à nos yeux.

Dorothée Barba : Toute seule.

Antonio Casilli : Une seule donnée peut être croisée avec plusieurs autres données. Une donnée qui aujourd’hui n’est pas problématique peut le devenir si on est par exemple face à un changement de régime politique ou de standard de normes éthiques.

Dorothée Barba : La souveraineté numérique dans l’après-crise de Laurence Devillers est à lire aux Éditions de l’Observatoire ainsi que Des robots et des hommes, mythes, fantasmes et réalité chez Plon.
Quant au livre d’Antonio Casilli En attendant les robots c’est à lire au Seuil. Je recommande aussi cette série documentaire qui est tirée de vos travaux, pédagogique et édifiante Invisibles est son titre. C’est à voir sur france.tv/slash/ et c’est gratuit.
Merci beaucoup à tous les deux.

Laurence Devillers : Merci.

Antonio Casilli : Merci.

Dorothée Barba : Bonne journée et à bientôt sur France Inter.

[Fin de l'émission, partie non transcrite]

Le coronavirus menace-t-il nos données de santé ? Le magazine du week-end

APRIL - ven, 09/18/2020 - 08:44


Titre : Le coronavirus menace-t-il nos données de santé ?
Intervenant·e·s : Stéphanie Combes - Yoann Nabat - Jean-Paul Hamon - Julie Gacon
Lieu : Émission Le magazine du week-end - France Culture
Date : août 2020
Durée : 38 min 30 [première partie de l'émission]
Écouter ou télécharger le podcast
Site de présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Covid-19 - Licence Creative Commons Attribution-ShareAlike 4.0 International
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Faut-il s'inquiéter des failles dans la protection de nos données de santé sur internet depuis le début de la crise sanitaire ?

Transcription

Julie Gacon : Bonjour. Ravie de vous retrouver pour Le magazine du week-end. Nous sommes ensemble jusqu’à 13 heures 50 pour discuter de l’actualité ici dans le monde avec nos invités. Bienvenue à tous.

Faut-il attiser ce qui semble être les derniers feux de l’industrie pétrolière ? Alors que les géants du secteur ont perdu des dizaines de milliards de dollars pendant et après la crise sanitaire, il y a ceux qui veulent les aider à sortir de l’ornière, comme Donald Trump. Il y a aussi ceux qui veulent les encourager à en profiter pour rediriger leurs investissements vers les énergies renouvelables. Nous en parlons avec nos invités aux alentours de 13 heures 20.

Pour commencer, on les appelle justement le « pétrole du XXIe siècle », ce sont les données de santé. Et nul besoin de forer en haute mer pour les trouver, les données de santé sont partout. Des chiffres, des textes et des images, informations disparates de plus en plus réunies en de gigantesques bases auxquelles les logiciels d’intelligence artificielle tentent de donner du sens pour mieux connaître et in fine mieux soigner les pathologies.
Ainsi en va-t-il du gigantesque Health Data Hub, l’immense plateforme d’exploitation des données de santé créée en décembre dernier par le ministère de la Santé. Une plateforme qui a choisi le géant américain Microsoft pour héberger ces données et qui, pendant la crise sanitaire, s’est vu confier des prérogatives inédites : le droit de stocker de nouvelles catégories de données médicales, ceci au nom, comme on l’entend souvent, de « l’intérêt général et du bien commun ». Mais jusqu’où est-on prêt à céder ces données intimes ? Le coronavirus a-t-il fait sauter les digues de l’anonymat et de la prudence ?
Nous recevons trois invités pour en débattre dont la directrice de Health Data Hub. Bonjour Stéphanie Combes.

Stéphanie Combes : Bonjour.

Julie Gacon : Merci beaucoup d’être avec nous. C’est donc vous qui dirigez cette plateforme placée sous l’autorité du ministère de la Santé et qui doit centraliser des données de santé françaises à des fins de recherche.
Nous sommes également en ligne avec Jean-Paul Hamon. Bonjour.

Jean-Paul Hamon : Bonjour.

Julie Gacon : Vous êtes médecin généraliste et président d’honneur de la Fédération des médecins de France.
Et nous sommes en studio avec Yoann Nabat. Bonjour.

Yoann Nabat : Bonjour.

Julie Gacon : Vous êtes doctorant en droit pénal et sciences criminelles à l'université de Bordeaux, et vous avez publié en début de semaine un long article sur le site de The Conversation : « Fichiers sanitaires : un destin tracé vers la surveillance généralisée ? ».
Je dirige cette première question vers vous Stéphanie Combes. Vous avez, en plein crise sanitaire, bénéficié d’un arrêté gouvernemental qui élargissait les prérogatives de la plateforme que vous dirigez, le Health Data Hub1, pour mener des projets de recherche contre le coronavirus. Quel usage en avez-vous fait d’ores et déjà au mois d’août ?

Stéphanie Combes : Merci beaucoup de m’avoir invitée. Effectivement, la plateforme des données de santé a été créée, peut-être pour le rappeler, par la loi organisation et transformation du système de santé du 24 juillet 2019 et elle a vocation, en fait, à permettre des projets d’analyse de données de santé innovants visant l’intérêt général.
Suite à cette loi, un décret d’application, prévu pour la fin du mois d’octobre, doit être pris, et cet arrêté gouvernemental auquel vous faites référence a simplement permis d’accélérer, finalement, la mise en place de cette structure et de ses activités, mais qui étaient bien celles qui étaient prévues initialement, c’est-à-dire permettre la réalisation de tous ces projets de recherche.

Julie Gacon : C’est quand même un arrêté qui vous donne le droit de stocker de nouvelles catégories de données médicales. Lesquelles ?

Stéphanie Combes : C’est un arrêté qui nous permet de stocker des données relatives à l’épidémie, mais qui sont bien comprises dans ce qu’on appelle le Système national des données de santé qui recouvre, finalement, l’ensemble des données de santé reliées à un remboursement de l’assurance maladie, tel que prévu par la loi de juillet 2019.
Ça nous a permis d’accélérer un petit peu notre feuille de route initiale, mais ça n’élargit pas réellement les prérogatives de la plateforme telles qu’elles avaient été imaginées. Ce que nous appelons l’« entrepôt covid », c’est-à-dire la réunion de ces bases relatives à l’épidémie, a bien vocation à faire partie du catalogue beaucoup plus large de la plateforme des données de santé qui lui sera mis en œuvre plutôt en fin d’année.

Julie Gacon : En quelques mots, quels projets avez-vous pu lancer à la faveur de cet arrêté dont on comprend, c’est ce que vous nous dites Stéphanie Combes, qu’il n’a pas non plus créé de nouvelles prérogatives pour cette plateforme ?

Stéphanie Combes : Exactement. Grâce à cet arrêté on a pu réunir des premières données. Les premières données c’était celles des passages aux urgences de Santé publique France qui ont pu être mises à disposition dès la fin du mois d’avril aux équipes du ministère de la Santé pour étudier, notamment, le non-recours aux soins au niveau des urgences pendant la période du confinement. On a, à l’heure actuelle, une dizaine de projets qui sont en cours d’instruction auprès de la CNIL [Commission nationale de l'informatique et des libertés] pour pouvoir étudier différentes facettes de l’épidémie, que ce soit mieux comprendre les profils à risque, décortiquer les parcours de soin ou développer des outils d’aide au diagnostic des malades covid graves, etc. Il faut bien comprendre que cet arrêté nous a permis de recueillir et d’héberger des données pour les mettre à disposition des porteurs de projets, mais que ces porteurs de projets eux, doivent être pleinement autorisés pour pouvoir traiter les données sur la plateforme technologique du Health Data Hub. Ça n’est pas du tout de l’open data, par exemple.

Julie Gacon : On y reviendra. L’arrêté gouvernemental a été attaqué par 14 associations, experts et médecins auprès du Conseil d’État lequel les a retoqués et on reviendra plus longuement sur leurs griefs.
Jean-Paul Hamon, est-ce que les médecins ont été obligés, de bonne ou mauvaise grâce d’ailleurs, de communiquer les données de santé dont ils disposaient et à qui ? C’est-à-dire est-ce que pendant la crise sanitaire vous avez eu cette mission, est-ce que cette mission-là a été renforcée ? Est-ce qu’on vous a demandé de coopérer davantage ?

Jean-Paul Hamon : On a coopéré volontiers avec la caisse d’assurance maladie notamment pour le fameux projet de tracing des patients déclarés positifs. De ce côté-là on n’a pas eu d’états d’âme parce qu’avec la caisse d’assurance maladie on a des relations depuis très longtemps, on sait qu’ils sont tenus au secret médical et on n’a jamais eu de viol de secret médical de la part de la caisse d’assurance maladie. Ce projet de tracing est arrivé tardivement parce qu’on a pensé un peu tard à l’utilité des médecins généralistes dans la gestion de cette crise. Oui, effectivement, on l’a fait avec la caisse d’assurance maladie et le service médical de l’assurance maladie a pris contact avec les patients qui avaient été en contact avec les personnes positives et on se rend compte que ce système-là est efficace, même s’il est largement perfectible.

Julie Gacon : Pour l’instant, il faut rappeler que le Système national des données de santé, qui existe déjà, est une base de données qui rassemble les données de l’assurance maladie, les données qu’on appelle de facturation, ce sont celles qui indiquent quel acte a été pratiqué, quel médicament a été prescrit, à quel tarif, enfin toutes les informations dont a besoin l’assurance maladie.
Yoann Nabat, qu’est-ce qui a été autorisé en plus au nom de la lutte contre l’épidémie qui ne l’était pas jusque-là ?

Yoann Nabat : En réalité ce sont deux traitements de données donc deux fichiers qui ont été mis en place par la loi prolongeant l’état d’urgence, la loi du 11 mai 2020. Ces deux fichiers qui ont été évoqués implicitement par monsieur Hamon : le fichier SI-DEP [Système d’information de dépistage] qui, en fait, contient toutes les données des tests PCR qui sont réalisés, à la fois les tests positifs bien sûr, mais aussi tous les tests négatifs ; les données restent dans le fichier.
Le deuxième traitement de données qui a été créé par cette loi c’est le fichier Contact Covid qui lui comprend les données à la fois du patient 0, c’est-à-dire de celui qui est allé voir son médecin en disant « à priori j’ai des symptômes et j’ai le coronavirus », qui a été déclaré positif, sur lequel on fait ensuite cette fameuse enquête de contact tracing pour essayer de récupérer tous les contacts des individus qu’il a pu croiser, qu’il connaissait donc qu’il est à même de donner.
C’est ce fichier qui est peut-être le plus problématique parce qu’il sera à disposition pas seulement de médecins, pas seulement de professionnels de santé, mais des brigades sanitaires, les fameuses brigades d’anges gardiens qui ont été mises en place, qui sont certes rattachées à la caisse primaire d’assurance maladie, donc ce sont tous des gens qui sont assermentés parce qu’ils travaillent à l’assurance maladie, mais qui, néanmoins, ne sont pas tous des professionnels de santé. Là aussi, où c’est simplement problématique, on nous a dit que ces fichiers ne contenaient que la positivé ou non au coronavirus et les données personnelles. C’est faux parce qu’on trouve dedans aussi par exemple la spécialité du médecin qui a prescrit le test, et la spécialité du médecin peut bien sûr traduire une pathologie que vous avez.

Julie Gacon : Si c’est un oncologue !

Yoann Nabat : Exactement. Si c’est un oncologue, on sait que vous avez un cancer.
C’est évidemment problématique. Il contient aussi le statut du patient, s’il est hospitalisé ou non, les lieux que le patient aurait fréquentés type maison de santé, etc., donc il contient beaucoup de données qui vont au-delà des données qu’on présente habituellement.

Julie Gacon : Stéphanie Combes, comment est-ce qu’on a pu collecter en trois mois des données fiables quand dans chaque CHU, chaque hôpital qui dispose d’un système d’information avec des équipes qui fournissent des données qu’on dit propres, on met déjà beaucoup de temps à le faire, avec des systèmes d’information souvent vieillissants, qui existent depuis 20 ans ? En gros, les informaticiens qui travaillent sur ces données dans les hôpitaux nous disent qu’entre le moment où elles sont collectées et le moment où elles sont récupérées pour être analysées il faut à peu près cinq ans.

Stéphanie Combes : C’est vrai. Dans tous les cas pendant la crise sanitaire on a vu quand même une effervescence des projets autour de la collecte des données et une accélération de leur remontée. Là on a évoqué SI-DEP qui est un système d’information qui a été mis en place par le ministère dans un temps extrêmement court, mais qui n’existait pas auparavant.
On a également le flux qu’on appelle Fast Track SNDS qui est finalement une version un petit peu plus rapide du SNDS [Système National des Données de Santé], qui va remonter les données de facturation hospitalière, le PMSI [Programme de médicalisation des systèmes d'information]; elles sont codées qui par les médecins DIM [Département d'information médicale], et qui remontent de manière plus rapide pour pouvoir donner une visibilité sur l’activité hospitalière, qui sont ensuite chaînées avec les données de consommation de soins de l’assurance maladie. Et ça c’est pareil, c’est d’ailleurs une partie de l’arrêté que vous avez évoqué qui a permis de mettre en place ce traitement ad hoc, donc une adaptation d’un traitement existant. Ce qu’il faut savoir c’est qu’effectivement, c’est ce que vous dites, si on fait remonter plus rapidement certaines données, ce sera parfois au prix de leur qualité, mais, dans un temps de crise, on a aussi besoin d’avoir des éléments factuels qui remontent à la vitesse de la décision.

Julie Gacon : Comment on fait pour ça ? Quand on parle de manque d’effectifs dans les hôpitaux ? On parle beaucoup des soignants mais les informaticiens ne sont pas en reste et, Jean-Paul Hamon, les canaux de transmission des données pour la médecine de ville ne sont pas très opérants aujourd’hui.

Jean-Paul Hamon : Si vous voulez parler du DMP [Dossier médical partagé] oui, effectivement, ce n’est pas opérant du tout, c’est quelque chose qui traîne depuis maintenant 2004, qui a dû coûter quelque chose comme 500 millions d’euros et actuellement les logiciels métiers, ceux qu’on utilise pour gérer les fichiers des patients dans nos cabinets, ne se connectent pas de façon ergonomique au DMP. Actuellement le DMP a une indexation aléatoire.

Julie Gacon : Le DMP, rappelez-nous.

Jean-Paul Hamon : Le Dossier médical partagé, qui avait été rebaptisé en 2004, le dossier mal parti et ça se confirme. Il n’y a aucune utilisation ergonomique et franchement c’est un sac dans lequel on enfourne des données qui sont inexploitables, car il y a une indexation qui est très mal fichue.

Julie Gacon : Est-ce que ça vous pose problème, Jean-Paul Hamon, ce que Yoann Nabat disait tout à l’heure, qu’aujourd’hui soit transmise la spécialité du médecin qui a ordonné un test de coronavirus ?

Jean-Paul Hamon : Oui. D’ailleurs c’est une révélation parce que, pour moi, il n’y avait que le médecin traitant qui pouvait transmettre la positivité du patient.

Julie Gacon : Apparemment non.

Jean-Paul Hamon : Je l’apprends et ça pose effectivement un problème.
Ceci étant, c’est la caisse d’assurance maladie qui gère et je dois dire qu’en 40 ans d’exercice le service médical de l’assurance maladie n’a jamais été mis en défaut pour trahison de secret médical. Donc j’ai une entière confiance dans la caisse d’assurance maladie dont tous les salariés sont assermentés.

Julie Gacon : Stéphanie Combes, pour que ce soit bien clair, que deviendront les données collectées par le Health Data Hub pendant la crise sanitaire ? C’est-à-dire que la CNIL fixe un cadre d’utilisation des données, notamment leur durée d’utilisation. Est-ce que ça veut dire qu’à un moment vous allez devoir les détruire ?

Stéphanie Combes : Justement on a ces bases qui sont relatives à l’épidémie, que nous appelons entrepôt covid, et on a ce qu’on appelle le catalogue, c’est la collection plus large des entrepôts, qui ne sont pas propres qu’à l’étude de la covid, qui va être copiée et partagée grâce à la plateforme technologique Health Data Hub. L’entrepôt covid a vocation à faire partie de cette collection plus générale de données puisque le texte prend fin au 30 octobre et que, d’ici là, le décret relatif au SDNS qui va permettre d’inscrire l’activité plus large du Health Data Hub dans la pratique sera pris justement pour sécuriser la conservation de ces données. Les travaux de recherche, les travaux épidémiologiques, qui vont permettre de mieux comprendre les parcours de soin, les profils à risque, l’efficacité des traitements, etc., eux ne peuvent pas se conduire en seulement quelques semaines, d’ailleurs, à l’heure actuelle, la plupart des projets sont en cours d’instruction par la CNIL, donc ils ne vont démarrer que dans les prochaines semaines. Donc on va avoir nécessairement besoin de les conserver sur des durées un peu plus longues, des durées qui sont plus proches de la recherche que celles du pilotage.

Julie Gacon : Yoann Nabat.

Yoann Nabat : C’est là où la CNIL montre un peu la précipitation du décret d’avril parce que effectivement, vous l’avez évoqué Stéphanie Combes, il faudra un nouveau décret pour permettre que les données actuellement collectées soient conservées après le 30 octobre. On aurait pu voir les choses de manière un peu plus réfléchie, si on avait pris le temps poser les faits comme le souhaitait la CNIL : le calendrier d’application du Health Data Hub était quand même normalement sur un temps un petit plus long. Là on récolte quand même des données en disant aux patients « on ne va les conserver que trois mois pour vous, six mois anonymisées » et finalement on apprend que non, elles vont rester plus longtemps sur Health Data Hub que c’était prévu au départ. D’un point de vue de consentement, même si on ne consent pas pour ça, mais du point de vue du patient ça me partait problématique.

Julie Gacon : La CNIL qui évoque plusieurs problèmes liés à cette plateforme, Health Data Hub, notamment la question de l’anonymat des données. D’ailleurs, Stéphanie Combes, on ne parle plus d’anonymat, on ne parle plus d’anonymisation mais de pseudonymisation des données. Ça veut dire quoi ?

Stéphanie Combes : Je voudrais revenir une demi-seconde sur le calendrier législatif qui est connu depuis le départ. Effectivement, cela peut porter à confusion qu’il y a ait plusieurs publications de textes, mais le décret SNDS a été prévu dès la publication de la loi en juillet 2019, ce n’est pas un nouveau texte, mais un texte qui était déjà en cours de rédaction, sur lequel il y avait déjà eu des échanges informels avec la CNIL depuis décembre 2019, mais qui a pris un peu de retard du fait des évènements de la crise qui ont beaucoup préoccupé tous les services du ministère et on le comprend bien.
Effectivement, nous on parle de pseudonymisation et pas d’anonymisation parce que l’anonymisation, pour qu’elle soit totale, nécessite d’agréger des données et finalement elle va permettre de faire des comptages qui sont assez génériques, par exemple des comptages de patients, des comptages d’actes, mais elle ne sera pas du tout pertinente pour faire de la recherche à un niveau fin, par exemple de la recherche médicale. On va chercher à mesurer l’efficacité d’une prise en charge, pour cela on va s’intéresser à toute la séquence des évènements médicaux pour un patient donné. Donc les chercheurs n’ont pas besoin de savoir qui est le patient, ils n’ont pas besoin de l’identité du patient, mais ils ont besoin de données qui soient à une granularité très fine, donc à l’échelle des patients. On va avoir des chroniques de parcours de soin pour chaque patient, mais on n’aura pas l’identité de ces patients-là. C’est ça qu’on appelle données pseudonymisées, on enlève les données qu’on appelle directement identifiantes comme le nom, prénom, numéro de sécurité sociale, etc., tout cela est supprimé.

Julie Gacon : Un informaticien de l’Assistance publique – Hôpitaux de Paris, l’AP-HP, m’expliquait par exemple qu’une base de données pseudonymisées, c’est comme une bibliothèque où pour chaque livre on aurait effacé le nom de l’auteur, tout le reste y est. C’est vrai qu’il suffit de connaître un peu Balzac pour reconnaître Balzac, etc. Il suffit de croiser un petit nombre de données pour identifier un patient. En tout cas, la pseudonymisation vous n’y croyez pas Yoann Nabat ?

Yoann Nabat : Ce n’est pas que j’y crois pas. En tout cas, il faut bien avoir conscience qu’une donnée pseudonymisée reste une donnée personnelle, sensible, là il s’agit de données de santé. Il y a plusieurs études qui ont montré que les données pseudonymisées pouvaient être ré-identifiées assez facilement avec quelques éléments seulement. Or là, pour le Health Data Hub, comme on mélange plein de bases de données, par définition on a beaucoup d’éléments sur chaque patient, donc il devient plus facile de ré-identifier. Donc il faut y faire attention à la pseudonymisation.

Julie Gacon : Et ça dépend aussi des « producteurs » de données entre guillemets, Jean-Paul Hamon, des médecins, c’est aussi à eux de faire attention, quand ils envoient un document, de donner le moins possible d’informations sur un patient ? Ou au contraire ça annule les effets bénéfiques d’une telle base de données ?

Jean-Paul Hamon : Je ne regrette pas d’avoir participé à cette émission parce que je suis en train de m’instruire. J’apprends que des médecins autres que les médecins traitants peuvent renseigner la positivité sur le covid. J’apprends que les données de santé qui sont récoltées à cette occasion vont être stockées et prolongées alors que vraiment je pensais ça ne servait qu’au suivi de l’épidémie.

Julie Gacon : C’est vrai que vous étiez assez enthousiaste sur le Health Data Hub, mais vous avez l’impression que vous n’étiez pas assez renseigné ?

Jean-Paul Hamon : Je suis modérément enthousiaste parce que je sais où ces données-là sont hébergés. Maintenant elles vont être hébergées chez Microsoft parce que le gouvernement s’est précipité alors qu’on aurait pu prendre le temps, une année ou deux, voire trois, pour vraiment avoir un stockage au moins européen sinon français.

Julie Gacon : Stéphanie Combes va vous répondre.

Jean-Paul Hamon : Pour au moins avoir des garanties et avoir la garantie sur le devenir de ces données parce que, effectivement, on sait que des données croisées, l’anonymisation est tout à fait relative et on peut retrouver ça.
Mais franchement les médecins sont très sensibilisés à cette histoire d’anonymisation des données et on est effectivement de plus en plus inquiets. Autant j’étais enthousiaste à l’idée de participer au ciblage de cette épidémie et à contenir l’épidémie en identifiant les cas contacts, autant je suis un peu inquiet sur ce que j’entends actuellement.

Julie Gacon : D’ailleurs est-ce que vous savez, Jean-Paul Hamon, on ne parle pas du tout de Microsoft ni du Health Data Hub, mais qu’il y a beaucoup de médecins, je crois, qui utilisent la boîte Gmail et déjà on est dans une problématique ? Quand un patient envoie un mail à un médecin, les données appartiennent quand même à l’entreprise américaine. C’est un livre ouvert. Toutes les grosses entreprises savent qu’elles ne doivent pas utiliser Gmail pour leurs informations sensibles. Est-ce que vous avez une boîte Gmail, Jean-Paul Hamon ?

Jean-Paul Hamon : J’ai une boîte Gmail, mais je ne l’utilise pas et je ne communique par mail avec mes patients que de façon totalement exceptionnelle. J’utilise personnellement une messagerie qui est totalement sécurisée qui s’appelle APICRYPT2, qui existe depuis 1998 et qui est totalement cryptée. Là-dessus on communique entre médecins et entre biologistes, radiologues, chirurgiens et médecins. Tout ça est intégré directement dans mon dossier patient et je ne communique aucune donnée avec mes patients, on se téléphone, mais on ne communique pas par mail.

Julie Gacon : Stéphanie Combes, Jean-Paul Hamon a évoqué la question de Microsoft. C’est vrai que c’est la question qui fait le plus débat dans la mise en place de cette plateforme Health Data Hub. Comment votre choix s’est porté sur ce géant américain pour l’hébergement des données ? Je rappelle, on ne parle là ni de la collecte ni du traitement mais de l’hébergement des données.

Stéphanie Combes : Je vais vous répondre immédiatement. Je voudrais juste rebondir, je suis désolée, sur la question de la pseudonymisation. Je pense qu’il est très important de faire cette distinction et de la vulgariser, mais il faut bien comprendre que tout le monde a conscience, dans le milieu du traitement de la donnée de santé, de cette distinction, c’est-à-dire que c’est précisément parce que les données sont pseudonymisées et qu’elles sont potentiellement ré-identifiables que le niveau de sécurité requis pour les traiter, la traçabilité, la double authentification, etc., est extrêmement élevé. Ce n’est pas une erreur de jugement entre anonymisation et pseudonymisation. On a conscience qu’on a besoin de données très granulaires pour mener à bien ces recherches et c’est pour cette raison que les conditions de sécurité qui sont mises en place sont très élevées et sont instruites de très près par l’ANSSI [Agence nationale de la sécurité des systèmes d'information], la CNIL, etc. Je reviens sur le choix de Microsoft.

Julie Gacon : Est-ce qu’il y avait urgence à décider d’un hébergeur selon Jean-Paul Hamon ?

Stéphanie Combes : Libre à chacun d’estimer si la recherche en santé est une priorité ou pas. À l’époque j’étais chef de projet au ministère de la Santé et on venait de rendre le rapport de la mission de préfiguration du Health Data Hub à la ministre, à l’époque Agnès Buzyn, mi-octobre 2018 et elle nous a confié la mise en place de cette plateforme, nous demandant d’avoir des premiers résultats pour la fin de l’année 2019 dans un contexte extrêmement concurrentiel sur l’intelligence artificielle et la santé. On voyait déjà, au printemps 2018, des premiers dispositifs médicaux intégrant de l’intelligence artificielle, certifiés, aux États-Unis, donc ça va extrêmement vite, dans des pays aussi où les échanges de données se font parfois de façon plus fluide. Dans ce contexte-là on a analysé les différentes offres technologiques qui existaient par rapport aux besoins du Health Data Hub. On parle évidemment, pour ces besoins, de traitements de données massifs, donc il nous faut des outils technologiques qui soient capables de passer à l’échelle mais aussi un très haut niveau de sécurité, donc une capacité à gérer de manière très fine les accès, les traces, etc., tous les composants. C’est au regard de ces exigences-là et aussi de l’enjeu de vitesse que nous avons considéré les différentes offres disponibles. On a rencontré une dizaine d’industriels en commençant évidemment par les gros industriels français.

Julie Gacon : Qui ne vous ont pas convaincus ?

Stéphanie Combes : Qui n’étaient pas capables de répondre en particulier aux exigences de sécurité. Suite à toutes ces rencontres-là il est apparu qu’il n’y avait que Microsoft, à l’époque, qui pouvait répondre aux besoins de fonctionnalité et de sécurité.
Ce qu’on avait quand même bien en tête c’est, de toute manière, de monter cette plateforme avec le niveau de sécurité exigé quel que soit l’hébergeur qui serait retenu, mais aussi une capacité à être ce qu’on appelle réversible, c’est-à-dire à pouvoir migrer l’infrastructure chez un autre hébergeur le moment venu. On fait des points très régulièrement avec la Direction interministérielle du numérique et la Direction générale d’entreprises pour suivre le dossier offre cloud souverain qui est un dossier très important pour l’État bien évidemment.

Julie Gacon : On sait aussi, Stéphanie Combes, que le cœur de métier, comme on dit, de ces sociétés, Microsoft en l’occurrence qui assure l’hébergement en masse des données, c’est aussi d’ajouter progressivement ce qu’on appelle des fonctions propriétaires pour empêcher que leurs clients puissent migrer facilement vers d’autres plateformes. C’est un groupe privé qui n’a pas intérêt à ce que ces données lui échappent. En quelques mots, elles sont stockées physiquement où ces données ?

Stéphanie Combes : Aujourd’hui les données sont dans des serveurs qui sont localisés aux Pays-Bas et elles seront très prochainement dans des serveurs localisés en France.

Julie Gacon : Microsoft étant Américain, Yoann Nabat, qu’est-ce qui garantit aujourd’hui qu’il ne va pas trouver opportun, à un moment, de transférer ces données vers les États-Unis, c’est une inquiétude que la CNIL a soulevée ?

Yoann Nabat : Oui, effectivement. Il n’y a pas grand-chose qui garantit que ça ne transite pas justement par les États-Unis. Il faut bien comprendre qu’il ne s’agit pas simplement d’un stockage, comme on appelle en informatique, froid, c’est-à-dire on stockerait les données de manière chiffrée, on ne les utiliserait pas, simplement on les récupérerait pour les utiliser. Ce n’est pas le cas. C’est ce que fait par exemple déjà l’Allemagne avec Amazon, elle stocke ses données sur Amazon, c’est un stockage à froid, donc il n’y a pas de difficultés puisque c’est chiffré, donc Amazon n’a jamais accès aux données déchiffrées.

Julie Gacon : Ça change quoi en l’occurrence pour Microsoft ?

Yoann Nabat : Ce n’est pas le cas pour le Health Data Hub parce que les serveurs de Microsoft serviront aussi comme serveurs de calcul, comme puissance de calcul, donc les données vont forcément à un moment donné, c’est reconnu à la fois par la CNIL et par le Conseil d’État dans sa décision du 19 juin, transiter par les serveurs américains. Microsoft ne peut absolument pas garantir que les données vont rester et ne transiteront jamais par les États-Unis ?

Julie Gacon : Quel intérêt ? Je veux dire pourquoi les États-Unis s’intéresseraient aux données de santé françaises ? Pourquoi notamment la justice américaine s’intéresserait aux données de santé françaises puisque les opposants à la plateforme invoquent souvent le CLOUD Act3, cette loi américaine qui permet à la justice de réquisitionner des données hébergées partout dans le monde, très souvent pour les besoins d’une enquête criminelle ? À priori, on ne voit pas pourquoi ça les intéresserait d’aller chercher nos données de santé.

Yoann Nabat : Oui effectivement, vous avez raison, c’est d’ailleurs l’argument qu’a retenu le Conseil d’État, il n’a pas censuré sur le fait qu’il n’y aurait à priori pas de circonstances qui feraient que concrètement des données, surtout pseudonymisées, pourraient permettre aux États-Unis, aux gouverneurs américains, aux agences fédérales, d’avoir accès aux données de santé de Français. Ce n’est pas vraiment ça qui est problématique à mon sens, ce n’est pas vraiment l’histoire du Pricacy Shield, du CLOUD Act et la possibilité pour les agences américaines d’y accéder, c’est plutôt le fait que les États-Unis en eux-mêmes ne sont pas un territoire, et c’est reconnu par la jurisprudence à la fois de la CNIL et de l’équivalent américain de la CNIL.

Julie Gacon : Le Contrôleur européen de la protection des données qui a rendu un rapport il y a quelques jours.

Yoann Nabat : Tout à fait. Et justement à l’occasion d’une décision4 que la CJUE, la Cour de justice de l’Union européenne, a rendu au mois de juillet, il a précisé qu’on ne pouvait pas considérer les États-Unis comme un territoire sûr en matière de données personnelles. Que plus que le CLOUD Act, les services de renseignement américains notamment pouvaient accéder de manière très large aux données qui étaient contenues par des entreprises américaines. Donc le fait de stocker des données aux États-Unis était lui-même problématique. Ça c’est reconnu à la fois par Le Conseil d’État, par la CJUE et par la CNIL.

Julie Gacon : Stéphanie Combes, quels gardes-fous vous mettez ?

Stéphanie Combes : Les données ne sont pas du tout stockées aux États-Unis. Et si on lit très précisément l’ordonnance du Conseil d’État5 et les avis de la CNIL ça n’est pas du tout ce qu'ils disent. Ce qui est dit c’est que quand une activité de maintenance ou d’administration qui serait faite par un employé de Microsoft se fait à distance sur des serveurs quand bien même aux Pays-Bas depuis les États-Unis c’est considéré comme un transfert le fait de pouvoir visionner des données.
Après, ce qu’il faut bien comprendre, c’est que les données qui peuvent être accessibles dans le cas d’une activité de maintenance ne sont pas des données de santé, ça va être des données techniques, des logs, des choses comme ça. C’est par rapport à ces données-là qu’il y a un « risque », entre guillemets, en tout cas une possibilité dans des configurations extrêmement rares, par exemple une catastrophe, d’accéder à ces données-là.

Yoann Nabat : Excusez-moi, ce ne sont pas des configurations extrêmement rares. Ce qui est pointé c’est davantage le fait qu’on ne peut pas traiter aujourd’hui des données en elles-mêmes qui sont chiffrées. Le chiffrement c’est très bien pour le stockage, mais quand on analyse les données elles sont déchiffrées, on ne peut pas utiliser et traiter des données qui restent chiffrées.

Julie Gacon : Quand vous dites traitement c’est l’étape d’après, c’est-à-dire quand on doit ensuite les croiser ?

Yoann Nabat : Faire du calcul.

Stéphanie Combes : J’étais en train de parler des transferts de données que vous évoquiez, après on peut parler du déchiffrement.
Quand des administrateurs doivent accéder à des données clients pour une opération de maintenance, dans les conditions qui ont été définies avec le client, donc nous, en l’occurrence, on a un service qui s’appelle la Log Box qui nous permet de consentir ou non à un accès à des données clients, donc les nôtres. Ce ne sont pas des données de santé auxquelles il y a aura un accès qui pourrait être rendu effectif. Effectivement, il y a quand même des discussions avec la CNIL parce que les logs ce sont aussi des données personnelles, sur les clauses contractuelles types qu’il y a dans nos contrats et l’impact de la décision de la Cour de justice de l’Union européenne, mais on n’est pas sur des transferts de données de santé aux États-Unis et ce n’est absolument pas ce qui est marqué ni dans l’avis de la CNIL ni dans l’ordonnance du Conseil d’État. Il faut quand même faire très attention à ce qui est dit.

Julie Gacon : Je vous laisse réagir Yoann Nabat en essayant de ne pas être trop technique, ce n’est pas toujours très facile à suivre et puis je ferai réagir Jean-Paul Hamon.

Yoann Nabat : Juste en deux mots, je me suis peut-être mal exprimé en parlant de transfert. Les serveurs de Microsoft ne vont pas être utilisés simplement pour stocker mais pour faire du calcul, pour faire de l’utilisation et du traitement de ces données et ce traitement des données se fait nécessairement sur des données déchiffrées. Microsoft ne pourra pas garantir que lors du traitement des données, lorsqu’on utilise les serveurs pour leur puissance de calcul, ce soit uniquement des serveurs situés en Europe qui feront ce travail de calcul. On peut parfaitement imaginer que ce seront des serveurs situés aux États-Unis qui le feront. C’est simplement ça que je disais.

Julie Gacon : Vraiment quelques mots s’il vous plaît.

Stéphanie Combes : Je suis désolée. Les services sont associés à des localisations géographiques très précises et l’ensemble des services auxquels nous avons souscrits, y compris les services de calcul, sont situés en Union européenne.

Julie Gacon : Ce qui pose aussi question Stéphanie Combes, au-delà de Microsoft, c’est le fait que ces données soient désormais centralisées, c’est une question technique puisque s’opposent en la matière deux méthodes différentes, la centralisation et l’interopérabilité des bases de données. Ce qu’on reproche au fait que ces données soient vraiment ultra-centralisées aujourd’hui par Microsoft ce sont les risques accrus de piratage. Vous disiez tout à l’heure, Jean-Paul Hamon, la confiance que vous avez dans l’assurance maladie qui n’a jamais trahi le secret médical, qui n’a jamais trahi les données de santé, mais il y a aussi la question du piratage. Je ne sais pas si certains de vos collègues en ont été victimes, mais des hôpitaux le sont régulièrement.

Jean-Paul Hamon : Il n’y a même pas besoin de piratage. Ce qui m’épate un peu c’est de voir le laxisme du gouvernement dans l’autorisation de l’utilisation des données de santé. Je pense notamment à Doctolib où, effectivement, c’est très commode : vous prenez rendez-vous, vous donnez votre portable, vous donnez votre mail, on sait quel médecin vous consultez, on sait à quel rythme vous consultez ce médecin. Bien souvent, quand vous consultez un spécialiste, je prends l’exemple du gynécologue, quand vous prenez rendez-vous vous devez dire si c’est pour une contraception, si c’est pour un frottis, si c’est pour un cancer, ou si c’est pour une chirurgie. Vous imaginez que ces données-là sont quand même extrêmement sensibles. Là on vient d’apprendre qu’en fait ils ont hébergé les données de santé pendant un moment sans être hébergeur de données de santé. Le gouvernement, que ce soit Mounir Mahjoubi puis Cédric O ont vraiment servi la soupe à Doctolib parce qu’ils pensent qu’ils détiennent une licorne, etc. On s’aperçoit maintenant que les données de santé sont hébergées chez Amazon. Tout ça, si vous voulez, est extrêmement inquiétant. Je comprends qu’on ait besoin de l’intelligence artificielle et d’avoir une base de données extrêmement importante. Personnellement je suis extrêmement inquiet et je pense qu’on aurait pu effectivement sécuriser davantage ce stockage de données ; on n’était pas à un an ou deux ans près. Et donner les moyens aux industriels français d’héberger ces données de santé qui sont effectivement d’une richesse et d’une exploitation au point que je doute fort que les données recueillies par Doctolib ne soient pas utilisées à des fins commerciales dans une autre vie ou même parallèlement. Je suis vraiment extrêmement inquiet.

Julie Gacon : Est-ce qu’on peut comparer ces deux choses ? Vous évoquez Doctolib, Jean-Paul Hamon, il y a eu une énorme enquête dans Télérama il y a quelques semaines avec notamment des anciens de Doctolib qui disent, par exemple, que la question n’est pas de savoir si une méga-fuite de données est possible mais quand elle aura lieu et d’évoquer, par exemple, une base une base de données des patients partagée sans mot de passe sur des clefs USB ou via le service d’envoi de fichiers de WeTransfer, mais on est dans un cas différent : Doctolib n’est pas autorisé à héberger des données de santé, ce qui n’est pas le cas de Microsoft. Pour qu’on comprenne bien aussi, Stéphanie Combes, ces données générées par les patients, les médecins et les hôpitaux qui intéressent-elles ? Qui, pour l’instant, a accès à ces millions de données ? Qui y aura accès à terme ?

Stéphanie Combes : Je ne peux vraiment pas m’exprimer pour Doctolib. S’agissant de Health Data Hub l’idée c’est vraiment la mise à disposition de données à des porteurs de projet. Les porteurs de projet doivent quand même suivre un circuit qui n’est pas jugé simple mais qui est justement là pour vérifier que les projets vérifient bien l’intérêt public, sont bien solides sur le plan scientifique. La CNIL va regarder attentivement si le périmètre des données concernées par le projet est bien le bon, c’est-à-dire que si on s’intéresse à une pathologie et qu'on ne demande pas accès à la base en entier.

Julie Gacon : Mais que des chercheurs ? Quand vous parlez de projets, ce ne sont que des chercheurs.

Stéphanie Combes : Ce sont des projets d’étude ou de recherche, après ça ne donne pas forcément lieu à un article académique de très haut rang, mais ça va permettre d’éclairer un certain nombre de sujets. Il y a un comité éthique et scientifique national qui va instruire les dossiers qui sont assez touffus. Après la CNIL, évidemment, va regarder si le respect de la vie privée est bien garanti et ensuite c’est le Health Data Hub en collaboration avec ces porteurs de projet qui va assurer le niveau de sécurité des traitements, la traçabilité totale de toutes les requêtes qui seront faites afin qu’on puisse auditer si les porteurs de projet ont effectivement réalisé les études qu’ils avaient annoncées dans leur dossier. Donc on est sur une configuration qui est quand même assez différente.
Les données sont centralisées pour pouvoir facilement permettre des extractions, des chaînages entre différentes sources, mais les porteurs de projet, eux, n’ont accès qu’au périmètre strictement requis pour leur projet et absolument pas aux données des voisins ou à l’ensemble des données de la plateforme.
Je reviens sur votre propos un peu plus tôt, ce n’est pas vraiment une opposition entre interopérabilité et centralisation, parce que même quand on centralise des données, on a besoin qu’elles soient interopérables pour pouvoir les chaîner et les enrichir mutuellement. C’est simplement qu’aujourd’hui les données sont réparties sur l’ensemble du pays, il y a des centaines et des centaines de bases qui sont dans des établissements hospitaliers, sur des ordinateurs locaux parfois, dans différentes structures, et on a besoin, si on veut avoir un levier de réutilisation de ces données et atteindre les masses critiques qui sont essentielles pour la robustesse des analyses, de les centraliser. C’est aussi une manière de montrer le niveau de sécurité de l’hébergement de toutes ces données de santé, puisque c’est extrêmement onéreux de monter une infrastructure sécurisée, d’avoir une équipe d’opérateurs pour la suivre – moi j’ai une équipe de personnes qui est payée pour s’assurer, suivre des indicateurs de sécurité, etc. Donc le Health Data Hub apporte aussi cette offre de service aux producteurs de données.

Julie Gacon : On arrive à la fin de cette émission. Yoann Nabat ce que vous écrivez dans ce long article6 que je citais tout à l’heure sur le site de The conversation c’est, dites-vous, que l’on peut faire une analogie entre les fichiers de données de santé et ceux qui concernent la sécurité et la justice, analogie dans les finalités de ces fichiers. Je voulais que vous nous le rappeliez parce que vous êtes doctorant en droit pénal et sciences criminelles. Vous ne travaillez pas, à l’origine, spécifiquement sur les fichiers de santé.

Yoann Nabat : Non. D’ailleurs l’analogie peut paraître un peu incongrue comme ça de prime abord, en réalité elle ne l’est pas.
Je vise davantage les fichiers qui ont été mis en place pour le coronavirus, SI-DEP et Contac Covid, plus que le Health Data Hub, avec l’idée qu’il y a vraiment des points de comparaison possible. Ce qui m’intéresse notamment c’est l’évolution des fichiers de police pour essayer d’imaginer l’évolution des fichiers de santé. On s’aperçoit que comme les fichiers SI-DEP et Contact Covid ont été défendus sur l’idée qu’il s’agissait uniquement du coronavirus pour des finalités précises bien délimitées, c’est la même chose en matière de fichiers de police. Lorsque le fichier des empreintes génétiques, le FNAEG, a été créé en 1998, il a été créé uniquement pour les crimes sexuels, ce qui est évidemment une finalité extrêmement précise et restreinte qui ne concernait que quelques centaines, au maximum, d’individus. Or d’année en année et en 20 ans il s’est énormément étendu, de loi en loi qui ont étendu son champ d’action, son périmètre, sa finalité, et aujourd’hui le FNAEG recueille les données génétiques de quasiment l’intégralité des auteurs de délits et de crimes dans des champs qui ne sont plus du tout ceux de la criminalité sexuelle. Là où je m’interroge c’est que ça a été fait au nom d’une finalité qui est un enjeu sanitaire et finalement l’enjeu sécuritaire n’est pas très loin.

Julie Gacon : Et toujours au nom de l’ordre public. Merci beaucoup.
Je rappelle quand même que StopCovid a été activé par 2 % de la population et qu’il y a seulement 350 000 personnes actives, ça fait 0,5 %. Cette application n’est pas un grand succès. Merci d’avoir rappelé ça, Yoann Nabat. On met en ligne votre article sur le site de France Culture.
Je vous remercie Stéphanie Combes d’avoir été avec nous, directrice du Health Data Hub, et je vous remercie Jean-Paul Hamon, médecin généraliste, président d’honneur de la Fédération des médecins de France. Merci à vous tous d’avoir été avec nous. Dans un instant la seconde partie du Magazine du week-end.

#74 – L’informatique c'est quoi – Musique libre – Partager est bon - « Libre à vous ! » diffusée mardi 15 septembre 2020 sur radio Cause Commune

APRIL - mar, 09/15/2020 - 15:30

Au programme de l'émission : l'informatique c'est quoi (sujet principal) ; première chronique musicale d'Éric Fraudain ; chronique « Partager est bon » de Véronique Bonnet.

Émission Références Transcription --> Contact

Libre à vous !, l'émission pour comprendre et agir avec l'April, chaque mardi de 15 h 30 à 17 h sur la radio Cause Commune (93.1 FM en Île-de-France et sur Internet).

Au programme de la 74e émission :

  • Notre sujet principal porte sur le thème de l'informatique avec Sylvie Boldo, directrice de recherche à l'Inria, et Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage « Au cœur des réseaux. Des sciences aux citoyens » (Le Pommier, 2019)
  • la première chronique musicale d'Éric Fraudain du site Au Bout Du Fil
  • la chronique « Partager est bon » de Véronique Bonnet, professeur de philophie et présidente de l'April : présentation et commentaire du texte de Richard Stallman Mettre en application les critères du logiciel libre
  • diverses annonces
Réécouter en ligne

Votre navigateur ne supporte pas l'élément audio : écoutez l'émission (format OGG) ou format MP3.

podcast OGG et podcast MP3

-->

S'abonner au podcast

S'abonner à la lettre d'actus

Podcasts des différents sujets abordés

Les podcasts seront disponibles après la diffusion de l'émission (quelques jours après en général).

N'hésitez pas à nous faire des retours sur le contenu de nos émissions pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat). Vous pouvez nous laisser un message sur le répondeur de la radio en appelant le 09 72 51 55 46

toc_collapse=0; Sommaire 
  1. Personnes participantes
  2. Galerie photos
  3. Références pour la partie sur l'informatique
  4. Références pour la chronique d'Éric Fraudain
  5. Références pour la chronique de Véronique Bonnet
  6. Références pour la partie sur les annonces diverses
  7. Pauses musicales
  8. Licences de diffusion, réutilisation
Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Sylvie Boldo, directrice de recherche à l'Inria
  • Fabien Tarissan chargé de recherche en informatique au CNRS, auteur de l'ouvrage « Au cœur des réseaux. Des sciences aux citoyens » (Le Pommier, 2019)
  • Véronique Bonnet, professeur de philosophie et vice-présidente de l'April
  • Éric Fraudain du site Au Bout Du Fil
  • Étienne Gonnu, chargé de mission affaires publiques à l'April (à la régie)
Galerie photos

Vous pouvez voir quelques photos prises pendant l'émission.

--> Références pour la partie sur l'informatique Références pour la chronique d'Éric Fraudain Références pour la chronique de Véronique Bonnet Références pour la partie sur les annonces diverses Pauses musicales

Les références pour les pauses musicales :

Licences de diffusion, réutilisation

Les podcasts sont diffusés selon les termes d’au moins une des licences suivantes : licence Art libre version 1.3 ou ultérieure, licence Creative Commons By Sa version 2.0 ou ultérieure et licence GNU FDL version 1.3 ou ultérieure. Les musiques sont diffusées sous leur propre licence.

$( document ).ready(function() { var hash = document.location.hash; if (hash) { var tab = $(hash).parent('.tabcontent').attr('data-fromtab'); document.getElementById(tab).click() } });

Décryptualité du 14 septembre 2020 - Bilan des vacances !

APRIL - mar, 09/15/2020 - 00:18

Écouter ou télécharger le Décryptualité du 14 septembre 2020 (12 minutes)

Rentrée tardive pour décryptualité, l'occasion de faire un petit bilan de ce qui s'est passé pendant l'été et de se demander si nous sommes condamnés à nous répéter encore et toujours.

Decryptualité sur Mastodon

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Revue de presse de l'April pour la semaine 37 de l'année 2020

APRIL - lun, 09/14/2020 - 19:17

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Le Point] Alice Zeniter: «J'interroge les différentes possibilités de l'engagement»

Le samedi 12 septembre 2020.

ENTRETIEN. Avec son roman «Comme un empire dans un empire», Alice Zeniter interroge le dépassement des «passions tristes» et peut-être au fond, aussi, le sens du retrait et de l’absence de réponse définitive comme ultime refus.

[ZDNet France] Éducation nationale: voici pourquoi Microsoft est une drogue dure

✍ Louis Adam, le vendredi 11 septembre 2020.

L’Union des entreprises du logiciel libre et du numérique ouvert déplore l’ouverture d’un nouveau marché public par l'éducation nationale, qui vise à fournir des licences et services Microsoft aux employés du ministère. La conséquence d’une politique initiée depuis longtemps par les gouvernements successifs.

Et aussi: [ouest-france.fr] Voile. Arthur Le Vaillant: «On ne doit pas être des sportifs comme les autres»

Le jeudi 10 septembre 2020.

A 32 ans le skipper Rochelais a déjà un beau palmarès (2e de la transat Jacques Vabre en class 40 2017, 4e de la Route du Rhum 2018 en Class 40), mais pour lui qui est également musicien, la compétition n’est pas tout. Après sa victoire lors du Grand Prix de Brest Multi 50 dimanche dernier, celui qui passe beaucoup de temps dans la Baie de Morlaix est revenu pour Ouest-France sur ce qui l’anime en dehors de la compétition : l’impact environnemental de son sport. Entretien.

[ZDNet France] L'Inria veut faciliter l'accès aux technologies numériques open source

✍ Clarisse Treilles, le mardi 8 septembre 2020.

Inria Academy, c’est le nom du nouveau dispositif de formation continue pour aider les entreprises à utiliser certains logiciels open source.

Et aussi: [Le Monde Informatique] La Chine bannit Scratch, le langage d'apprentissage à la programmation

✍ Jacques Cheminat, le mardi 8 septembre 2020.

La guerre commerciale entre les Etats-Unis et la Chine fait une nouvelle victime: Scratch. Le langage d’apprentissage à la programmation développé par le MIT est interdit d’accès aux jeunes Chinois.

Réunion du groupe de travail Sensibilisation de l'April jeudi 17 septembre 2020 à 17 h 30 (accueil à 17 h 15) à distance

APRIL - lun, 09/14/2020 - 17:48
Start: 17 Septembre 2020 - 17:15End: 17 Septembre 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 17 septembre 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Libre à vous ! Radio Cause Commune - Transcription de l'émission du 8 septembre 2020

APRIL - lun, 09/14/2020 - 16:02


Titre : Émission Libre à vous ! diffusée mardi 8 septembre 2020 sur radio Cause Commune
Intervenant·e·s : Julie Bideux - Isabella Vanni - Catherine Dufour - Katia Aresti - Caroline Corbal - Isabelle Carrère - Frédéric Couchet - Étienne Gonnu à la régie
Lieu : Radio Cause Commune
Date : 8 septembre 2020
Durée : 1 h 30 min
Écouter ou enregistrer le podcast
Page des références utiles concernant cette émission
Licence de la transcription : Verbatim
Illustration : Bannière de l'émission Libre à vous ! de Antoine Bardelli, disponible selon les termes de, au moins, une des licences suivantes : licence CC BY-SA 2.0 FR ou supérieure ; licence Art Libre 1.3 ou supérieure et General Free Documentation License V1.3 ou supérieure. Logo de la radio Cause Commune utilisé avec l'accord de Olivier Grieco.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

toc_collapse=0; Sommaire 
  1. Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, qui portera sur la Fête des Possibles
  2. Les femmes et les métiers et communautés de l'informatique et du logiciel libre avec Catherine Dufour, ingénieure en informatique, auteure de Ada ou la beauté des nombres,Fayard, septembre 2019 ; Katia Aresti, ingénieure logiciel chez Red Hat, membre de Duchess France ; Caroline Corbal de Code for France, membre d'Open Heroines France. Il s'agit d'une rediffusion du sujet principal de l'émission diffusée le 5 novembre 2019.
  3. Première chronique d'Antanak avec Isabelle Carrère sur le thème de l’installation d'un système d'exploitation libre
  4. Annonces

Voix off : Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.

Frédéric Couchet : Bonjour à toutes. Bonjour à tous.
Les femmes, l’informatique, le logiciel libre, ce sera le sujet principal de l’émission du jour avec au programme la Fête des Possibles et également la première chronique d’Antanak qui portera sur l’installation d’un système d’exploitation libre. Nous allons parler de tout cela dans l’émission Libre à vous ! du jour.

Vous êtes sur la radio Cause Commune, la voix des possibles, 93.1 FM et en DAB+ en Île-de-France et partout dans le monde sur le site causecommune.fm.

Soyez les bienvenus pour cette nouvelle édition de Libre à vous !, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.

Le site web de l’April c’est april.org, vous pouvez y trouver une page consacrée à cette l’émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.

Nous sommes mardi 8 septembre 2020, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.
À la réalisation de l’émission aujourd’hui mon collègue Étienne Gonnu. Bonjour Étienne.

Étienne Gonnu : Salut Fred.

Frédéric Couchet : Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio. Pour cela rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous sur le salon dédié à l’émission.
Nous vous souhaitons une excellente écoute.
Tout de suite place au premier sujet.

[Virgule musicale]

Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, qui portera sur la Fête des Possibles

Frédéric Couchet : Parler d’actions de type sensibilisation menées par l’April, annoncer des événements libristes à venir avec éventuellement des interviews des personnes qui organisent ces événements, c’est la chronique « Le libre fait sa comm’ » de ma collègue Isabella Vanni. Isabella est coordinatrice vie associative et responsable projets à l’April. Bonjour Isabella.

Isabella Vanni : Bonjour à tout le monde.

Frédéric Couchet : Au programme aujourd’hui la Fête des Possibles avec Isabella Vanni et Julie Bideux. Je vous laisse toutes les deux.

Isabella Vanni : Bonjour. Nous allons faire une petite interview de Julie Bideux de l’équipe d’organisation de la Fête des Possibles. Bonjour Julie.

Julie Bideux : Bonjour.

Isabella Vanni : Tu m’entends bien ?

Julie Bideux : Très bien.

Isabella Vanni : Super.
Merci d’avoir accepté notre invitation pour parler et présenter cette manifestation. On en a déjà parlé au cours d’une précédente émission de Libre à vous !, mais ça nous fait plaisir d‘en parler à nouveau.
Je te laisse la parole déjà pour présenter brièvement la Fête des Possibles. En quoi ça consiste ?

Julie Bideux : La Fête des Possibles c’est tout un ensemble d’évènements, à la fois des petits et des beaucoup plus grands, qui sont organisés localement principalement en France et en Belgique du 12 au 27 septembre 2020.
Le but de la Fête c’est de donner de la visibilité à tous les créateurs et créatrices de possibles, c’est-à-dire tous ceux et celles qui agissent au quotidien pour une société plus juste et plus durable. En organisant un rendez-vous dans le cadre de la Fête des Possibles, ces créateurs vont ouvrir les portes de leurs projets, organiser des rencontres pour réfléchir ensemble et donner envie à tous les participants, toutes les participantes, de s’engager près de chez eux.

Isabella Vanni : Super. Je rappelle les dates : du 12 au 27 septembre partout en France et en Belgique principalement. Si j’ai bien compris, il y a deux objectifs principaux avec cette Fête : d’un côté rendre visibles ces initiatives locales et ces solutions et de l’autre inviter les personnes à passer à l’action.

Julie Bideux : C’est ça.

Isabella Vanni : Merci. Est-ce que tu peux nous faire des exemples d’évènements, de formats d’évènements qui peuvent être organisés à l’occasion de cette Fête en sachant, si j’ai bien lu ce que vous mettez sur votre site, que l’un des critères vraiment important de ces évènements c’est favoriser la participation, c’est-à-dire faire en sorte que les personnes jouent un rôle actif pendant l’évènement.

Julie Bideux : C’est ça. Il y a vraiment une assez grande diversité de rendez-vous qui sont organisés pendant la Fête, de tailles très différentes. Cette année vous pouvez aussi bien assister à un atelier dans un jardin partagé, à une porte ouverte dans une ferme ou tout un habitat partagé, une balade à pied ou à vélo des lieux de transition de votre quartier, une soirée projection, un débat ou alors un village associatif avec des ateliers plus élargis.

Isabella Vanni : Disons que le village c’est un peu l’évènement qui peut en accueillir d’autres en fait, entre stands, ateliers, conférences, mais ça peut être aussi une petite activité.

Julie Bideux : C’est ça. Sur le site on pourra aussi bien trouver juste des ateliers qui sont organisés dans le local de l’association, qui sont peut-être prévus tous les ans et qui ont été inscrits sur le site de la carte, qui sont organisés parce que c’est la rentrée. Mais il y a aussi des évènements où des associations travaillent ensemble pour faire parler de leurs activités où, du coup, on retrouvera à la fois des stands pour découvrir la diversification d’un territoire et aussi des conférences, des ateliers pour s’engager.

Isabella Vanni : L’autre point intéressant effectivement de cette manifestation, vous encouragez les associations et les individus, tout type d’organisation, à coopérer en fait pour donner plus de variété, pour proposer plus de variété d’évènements.
Le contexte sanitaire que nous vivons en ce moment est très particulier et j’ai vu que vous en avez tenu compte, notamment dans le kit que vous avez préparé, « Je crée mon RV ». Est-ce que tu peux nous en parler ?

Julie Bideux : Forcement, la situation sanitaire actuelle et ses incertitudes ont pas mal impacté l’organisation des rendez-vous de la Fête des Possibles, notamment le nombre de rendez-vous a automatiquement été réduit par rapport à l’année passée et plusieurs ont dû être annulés. Après il faut savoir que comme de nombreux rendez-vous sont de petite taille il a souvent été plus facile aux organisateurs de s’adapter à cette contrainte, même si de plus grands évènements ont quand même pu être maintenus.
On a essayé de donner des billes aux organisateurs sur comment respecter ce contexte, notamment les évènements en plein air ont souvent été favorisés. On a essayé de proposer des formats alternatifs, donc d’aller faire justement des circuits pour des projets d’initiative plutôt que se rassembler dans un espace clos.

Isabella Vanni : Tu parles de circuit. Comme la radio Cause Commune émet en Île-de-France, j’en profite. J’ai vu un circuit qui avait l’air pas mal, j’irai peut-être, la Piste des Possibles à Alfortville en Val-de-Marne. C’est en fait un jeu de piste ; à chaque étape on découvre un acteur ou une initiative de la ville, on est invité à participer à une activité autour de thèmes différents avec un défi à relever pour passer à l’étape suivante. C’est effectivement une façon d’organiser un évènement très festif sans pour autant concentrer trop de personnes au même endroit, ce qu’on essaie d’éviter en ce moment.
Je voulais te demander s’il est encore possible de proposer des rendez-vous.

Julie Bideux : Oui, tout à fait. Il est possible de proposer des rendez-vous jusqu’au dernier moment, jusqu’au dernier jour de la Fête des Possibles. Les dates officielles de la Fête des Possibles c’est du 12 au 27 septembre, mais il est possible d’inscrire des rendez-vous du 5 septembre au 4 octobre.

Isabella Vanni : D’accord, on a un peu de marge, on peut déborder un petit peu au niveau des dates.
Est-ce que c’est nécessaire de créer un évènement ad hoc pour la Fête ? Je participe à la Fête donc j’organise un événement exprès ou je peux inscrire aussi des évènements que j’avais déjà prévus mais qui peuvent correspondre, disons, aux critères de la Fête ?

Julie Bideux : Oui, tout à fait. Même si on est très heureux qu’il y ait des évènements, des festivals des possibles, des fêtes des possibles locales, des temps des possibles qui soient organisés, notre but c’est de valoriser ce qui existe sur le terrain, notamment de donner plus de voix aux évènements qui sont déjà prévus, qui ne nous connaissaient peut-être pas avant, aux initiatives existantes. Donc n’importe quel évènement, tant qu’il respecte notre charte, peut-être inscrit sur la carte.

Isabella Vanni : Ça donne aussi, comme tu le dis, plus de visibilité. Ça donne une visibilité supplémentaire à des évènements et à des organisations qui font déjà plein de choses. J’en profite pour dire que l’April, en tant que partenaire de la Fête des Possibles, a relayé la communication autour de cette initiative auprès des organisations de promotion du logiciel libre. Suite à nos appels à participation, une dizaine d’évènements libristes est déjà proposée dans le cadre de la Fête cette année. On en profite pour remercier toutes ces organisations.
Une dernière chose : comment on fait pour savoir si un rendez-vous est près de chez soi ?

Julie Bideux : Pour retrouver les rendez-vous organisés près de chez soi, il suffit d’aller sur le site de la Fête des Possibles, fete-des-possibles.org et consulter la carte interactive qui est passée sur OpenStreetMap cette année.

Isabella Vanni : On en est très contents à l’April !

Julie Bideux : Tous les évènements actuels sont inscrits sur la carte. Il y a aussi des filtres pour sélectionner les lieux, les dates et les thématiques.

Isabella Vanni : Merci beaucoup Julie, notre temps arrive à la fin. Merci beaucoup.
À nouveau la Fête des Possibles de samedi 12 à dimanche 27 septembre 2020. J’espère que malgré la situation il y aura plein d’évènements et il y aura plein de participation. Merci encore.

Julie Bideux : Merci.

Frédéric Couchet : Merci Isabella. Merci Julie. C’était la chronique « Le libre fait sa comm’ » de Isabella sur la Fête des Possibles avec Julie Bideaux. Vous pouvez retrouver sur le site de la Fête des Possibles et également sur le site de l’Agenda du libre, agendadulibre .org, tous les évènements.

Nous allons faire une pause musicale.

[Virgule musicale]

Frédéric Couchet : Nous allons écouter Asleep par HaTom. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : Asleep par HaTom.

Frédéric Couchet : Nous venons d’écouter Asleep par HaTom disponible sous licence libre Creative Commons Attribution.
Cette année, la programmation musicale de l’émission nous est assurée par Éric Fraudain du site Au Bout Du Fil, auboutdufil.com. Vous retrouver sur le site de Éric une description de cet artiste. J’en lis juste l’introduction : « HaTom est un Français qui compose depuis trois ans maintenant. Ses inspirations viennent d’univers différents, du reggae au jazz en passant par d’autres styles comme la Lofi. On comprend ainsi qu’HaTom prône une forme de liberté artistique en refusant d’être cantonné à un style. En ce moment, il crée beaucoup autour des styles R&B Soul et du Hip Hop ». La suite sur auboutdufil.com et sur la page Soundcloud et la chaîne YouTube de HaTom, je précise que HaTom s’écrit H, a, t, o, m.

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune, la voix des possibles, 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm.
On va passer au sujet suivant.

[Virgule musicale]

Frédéric Couchet : Nous allons poursuivre avec notre sujet principal qui va porter sur les femmes et l’informatique. Je précise que c’est la rediffusion d’un sujet déjà diffusé en novembre 2019. Initialement nous devions parler aujourd’hui d’initiation à la programmation pour les femmes, mais un souci technique nous empêche de traiter ce sujet. Nous diffusons donc à la place cette rediffusion qui a l’avantage d’aborder les sujets introductifs pour la future émission sur l’initiation à la programmation pour les femmes qui aura lieu très prochainement, je vous rassure.
On a écouter cette rediffusion et on se retrouve juste après.

Les femmes et les métiers et communautés de l'informatique et du logiciel libre avec Catherine Dufour, ingénieure en informatique, auteure de Ada ou la beauté des nombres,Fayard, septembre 2019 ; Katia Aresti, ingénieure logiciel chez Red Hat, membre de Duchess France ; Caroline Corbal de Code for France, membre d'Open Heroines France. Il s'agit d'une rediffusion du sujet principal de l'émission diffusée le 5 novembre 2019.

Frédéric Couchet : Nous allons donc poursuivre par notre sujet principal qui va porter sur les femmes et l’informatique et aussi le logiciel libre avec nos invitées : Catherine Dufour, ingénieure en informatique, autrice de Ada ou la beauté des nombres qui vient de paraître chez Fayard en septembre 2019. Bonjour Catherine.

Catherine Dufour : Bonjour.

Frédéric Couchet : Katia Aresti, ingénieure logiciel chez Red Hat, membre de Duchess France. Bonjour Katia.

Katia Aresti : Bonjour.

Frédéric Couchet : Et normalement au téléphone avec nous Caroline Corbal de Code for France et membre d'Open Heroines France. Bonjour Caroline.

Caroline Corbal : Bonjour, je suis là.

Frédéric Couchet : Super. Bienvenue à vous trois. Première question, même si je vous ai présentées très rapidement, une petite présentation personnelle, on va commencer par Caroline qui est au téléphone, c’est la situation la moins facile, donc Caroline.

Caroline Corbal : Bonjour. Tu m’as présentée, je suis membre du collectif Open Heroines que, je pense, on pourra présenter à nouveau tout à l’heure, sinon je suis cofondatrice d’une association qui s’appelle Code for France et je gravite dans le milieu du Libre depuis quatre/cinq ans.

Frédéric Couchet : D’accord. Katia Aresti.

Katia Aresti : Je suis ingénieure informatique chez Red Hat et je suis membre de Duchess France qu’on présentera tout à l’heure aussi depuis 2010. Je fais de l’open source en Java, particulièrement.

Frédéric Couchet : Je précise qu’on a déjà eu l’occasion d’avoir Katia Aresti dans notre émission sur le métier du développement logiciel libre, le podcast est disponible, et on a aussi déjà eu Caroline Corbal, je ne sais plus à quel moment c’était, mais pareil le podcast est disponible sur les sites de Cause Commune et de l’April. Catherine Dufour.

Catherine Dufour : Bonjour. Je m’appelle Catherine Dufour, je suis aussi ingénieure en informatique, je fais des bibliothèques numériques. Je fais des chroniques au Monde diplomatique, je donne des cours à Sciences Po et je suis auteure de science-fiction.

Frédéric Couchet : D’accord. On ne va pas aborder tous les thèmes du sujet qu'on va aborder aujourd'hui parce qu’il est très vaste, c’est une première émission sur le sujet, mais déjà première question, un petit peu le constat, pourquoi on parle de ce sujet-là, la place des femmes dans l’informatique et du logiciel libre alors qu’en fait, initialement, ce n’était pas la situation qu’on connaît aujourd’hui. Qui veut commencer peut-être sur l’histoire, rappeler les premières… Je précise, pour la la radio, qu'elles se font des signes pour se passer la parole. On va commencer sans doute par Catherine Dufour, notamment est-ce que les femmes ont toujours absentes, en tout cas moins présentes que les hommes dans l’informatique ? Comment ça se passait il y a quelques années ?

Catherine Dufour : Elles ont toujours été très présentes. L’informatique a commencé à la Seconde guerre mondiale, en gros, même si c’est vrai qu’IBM a été créée en 1890 par Hollerith. Globalement la partie noble de l’informatique c’était le hard, c’est-à-dire la machine, et puis le soft, la programmation, c’était la partie moins noble, donc on employait des femmes. Celle qui a inventé le premier programme informatique c’est Ada Lovelace, c’était en 1843, c’est un peu lointain. La première codeuse d’un des premiers gros ordinateurs, le Mark 1, c’est Grace Hopper, une ingénieure américaine et après il y avait un autre gros ordinateur à la même époque, là je vous parle c’est Seconde guerre mondiale ou juste après, c’était l’ENIAC, qui a été programmé par six mathématiciennes. Donc la programmation est longtemps restée une prérogative féminine.
Dans les années 70 – il y a un très bon article de Chantal Morley sur le sujet, à mon avis vous le trouverez sur Slate – l’informatique est devenue de plus en plus prégnante, l’informatique s’est répandue partout et les salaires ont commencé à monter. Il y a eu une réaction en Angleterre où c’était quand même l’État qui était le plus gros employeur d’informaticiens et d’informaticiennes, ils se sont vraiment dit « on ne va donner des payes pareilles à des femmes ! », et ils ont arrêté d’embaucher des programmeuses. Je crois qu’à l’époque il y avait 50 % de femmes dans l’informatique ; dans les années 80, je ne sais plus les chiffres exacts, c’est passé à 40 ou 30. Et maintenant, selon les paroisses, on dit que les femmes sont 12 % ou 20 % du secteur, mais il y a eu une volonté ferme de renvoyer les dames à la maison et de ne pas leur servir les gros salaires des informaticiens.

Frédéric Couchet : En fait, concrètement, c’est quand l’argent a commencé à arriver et le prestige on a dit : « Mesdames dehors, laissez la place aux hommes ! » C’est un peu ça.

Catherine Dufour : C’est toujours comme ça.

Frédéric Couchet : C’est toujours comme ça. Est-ce que Caroline ou Katia vous voulez compléter sur cette partie constat ou historique ou même le constat actuel ? Katia Aresti.

Katia Aresti : Oui, pour l’historique je pense que c’est très bien résumé, merci. Pour le constat actuel, oui, aujourd’hui on avance dans notre carrière pour travailler en tant que développeuse et plus on veut rester technique et avancer, du coup tu avances dans ta carrière, plus on voit qu’il y a plus de femmes qui quittent et qui vont être poussées plutôt à faire du management, du product owner, du fonctionnel. Très tôt dans notre carrière, on nous pousse plutôt à aller vers ça plus que les hommes je dirais. C’est comme si on voyait que comme les hommes, de toute manière, sont plus geeks, qu’ils vont peut-être plus s’épanouir pour devenir techniquement très forts avec les années et que nous on a quand même derrière un peu ce cliché qu’on va mieux faire de la gestion, qu’on va être plus sociales, etc., du coup on va nous pousser vers d’autres trucs très tôt dans notre carrière. Donc oui, quand tu as 14 ans d’expérience comme moi, eh bien on voit qu’il y a moins de femmes et dans l’open source encore moins.

Frédéric Couchet : On reviendra tout à l’heure sur la spécificité effectivement du Libre. Caroline Corbal est-ce que tu veux ajouter quelque chose ?

Caroline Corbal : Oui, que je partage tout à fait ce qui vient d’être dit et je pense, en effet, que ça fait un moment qu’on parle de la place des femmes dans le numérique et que concrètement la situation évolue beaucoup trop lentement. On voit encore qu’il n’y a pas assez de femmes encore qui contribuent à des projets libres. Il y a encore trop d’évènements avec une majorité d’intervenants masculins, voire 100 % masculins ; j’en ai encore vu récemment et je pense que c’est juste plus possible. Il y a encore trop peu de femmes dans les comités de direction des entreprises et puis encore, au quotidien, trop de situations de sexisme ordinaire qu’on doit subir. En échangeant entre femmes on se rend vraiment que beaucoup ne se sentent pas légitimes à prendre la parole que ce soit en public ou parfois dans des environnements fermés, ce qui me semble très problématique.

Frédéric Couchet : D’accord. Avant de repasser la parole à Catherine Dufour, j’ai une petite question collective. Catherine, dans son introduction, a parlé des années 40/50 jusqu’aux années 70 on va dire, mais dans les années 80 il y a eu un moment important c’est l’arrivée des ordinateurs personnels. Est-ce que l’arrivée des ordinateurs personnels a aggravé la situation dans le sens où ils ont peut-être été plus donnés à des garçons qu’à des filles ou, au contraire, est-ce que ça n’a joué aucun rôle ? C’est une question ouverte. Je redonne la parole à Catherine Dufour.

Catherine Dufour : Je n’aurai pas de réponse. Je dirais que très probablement, de toute façon, on a plus tendance à offrir des petits ordinateurs aux garçons et puis des petites machines à repasser aux filles, mais c’est juste du feeling. Il n'y a pas de données chiffrées là-dessus.
Pour reprendre, ce qu’a dit Katia est très important, c’est qu’il ne s’agit pas uniquement de plafond de verre. Un plafond de verre, vous montez en même temps que les hommes et à un moment pouf ! vous arrêtez, eux continuent. C’est ce qu’on appelle le couloir de verre. Là je voulais vous raconter une petite anecdote : une fois je suis intervenue dans une grosse société où il y avait une espèce de raout « féminisme et diversité ». C’est-à-dire qu’en gros on met dans une salle les femmes, les Noirs et les handicapés et on fait une grande conférence pour parler de ces soucis-là et à quel point la société essaye, justement, de détruire les inégalités. L’introduction a été faite par monsieur le PDG et puis il y a eu une petite allocution de monsieur le directeur financier et après ils nous ont dit : « Ce n’est pas tout ça, mais nous on a conseil d’administration, on va vous laisser discuter entre vous » [prononcé avec une voix mielleuse, NdT]. Ces messieurs sont allés exercer leurs fonctions régaliennes en nous laissant entre femmes, c’est-à-dire la responsable de la communication, la responsable des ressources humaines, c’est-à-dire, comme disait effectivement Katia, toutes les fonctions un petit peu molles, un petit peu dans le social, mais qui ne ont pas le nerf de la guerre, qui ne sont pas les vraies décisionnaires. Et à ce moment-là à la pause, en discutant avec les jeunes filles et les moins jeunes qui travaillaient dans cette société, j’ai compris que ce n’est pas tellement qu’on les empêchait de monter, c’est que dès le départ on les met dans un couloir de verre qui les emmènera, de toute façon, vers les fonctions molles où on est facilement remplaçable et où on ne prend pas les décisions importantes. Les hommes gardent en attribution, je dirais, le cœur du métier et le nerf de la guerre.
On ne raisonne plus forcément maintenant en fonction de plafond de verre mais en fonction de couloir de verre et c’est très bien fléché depuis le début de la carrière. Donc je félicite Katia pour avoir résisté à la pression de prendre ce couloir.

Frédéric Couchet : Avant de redonner la parole à Katia, sur le métier de développeuse, j’insiste : écoutez le podcast de l’émission avec Katia et Emmanuel Raviart où ils ont expliqué qu’on pouvait être développeur et développeuse de logiciels, en l’occurrence de logiciels libres, pendant des années et des années, que devenir chef de projet ou faire du marketing ce n’est pas la voie absolue ; je vous encourage vraiment à l’écouter. Je voulais juste savoir, par rapport à ma question sur les ordinateurs personnels des années 80, est-ce que Katia ou Caroline vous avez un commentaire là-dessus ou, pareil, vous n’avez pas de réponse ? Katia.

Katia Aresti : Effectivement je n’ai pas vécu ça parce que, justement, je pense que mon père m’a quand même un peu mis dans la tête que je devais être ingénieure. Depuis toute petite, quand j’avais trois/quatre ans et qu’on me demandait ce que je voulais être quand je serai grande, moi je disais que je voulais être ingénieure, parce que lui disait « tu vas être ingénieure ». Après j’ai fait ça parce que, plus tard, j’ai appris à coder et j’ai aimé coder. C’est pour ça que j’ai pris cette voie, pas parce que mon père m’a dit de faire ceci ou cela, c’est vraiment qui moi ai choisi. Ce qui est intéressant dans mon cas c’est que lui m’a poussée à beaucoup de choses : c’est lui qui apportait les Lego à la maison, il achetait des jouets typiquement plus orientés pour des garçons ou, disons, marketisés pour les garçons, donc pas roses, mais j’avais aussi des poupées, énormément de poupées, je faisais de la peinture, je faisais de la danse, etc. Disons que j’ai été exposée à tout et je n’ai pas vécu ça. Après ’ai eu un ordinateur. Oui, je crois que ça peut avoir une grosse influence la façon dont on te pousse à la maison et tous les stéréotypes de jouets, etc. Ce à quoi on joue quand on est petit et qu’on grandit avec ça, ça joue forcément quand même. Du coup, à mon avis, je pense qu’il y a forcément eu une influence, mais en même temps c’est empirique, je n’ai pas de data, de données.

Frédéric Couchet : On reviendra sur ce sujet dans le cours de l’émission, justement sur le rôle de l’éducation, des parents, de l’école, etc. Juste après on va aborder aussi le sujet de ce qui aggrave la situation aujourd’hui, de ce qui peut aussi l’améliorer, on va parler d’aujourd’hui. Caroline, est-ce que sur la partie expérience des années 80, même si, de mémoire, tu es un peu plus jeune peut-être que nous, est-ce que tu as une expérience ou des commentaires à faire ?

Caroline Corbal : Je rejoins Katia. Moi j’ai eu de la chance parce que mes parents m’ont tout de suite mis un ordinateur dans les mains, c’était dans les années 90, donc j’ai pu essayer ça dès le début et c’est là où je pense que l’école va aussi avoir un rôle fondamental pour gommer les discriminations qu’on peut avoir dans certains foyers. J’espère de toute façon qu’à terme, dans les foyers aussi, on aura de moins en moins ces discriminations-là.

Frédéric Couchet : D'accord. OK. On va parler un petit peu, même si Caroline a commencé, de ce qui aggrave la situation, de ce qui peut améliorer la situation et aussi des propositions concrètes. On parlera aussi, peut-être, des spécificités du logiciel libre s’il y en a par rapport à l’informatique en général parce qu’il peut y en avoir. Catherine Dufour, vous vouliez intervenir ?

Catherine Dufour : Oui. Je voulais juste dire que la notion de père est très importante. J’ai écrit un livre.

Frédéric Couchet : Pair, p, a,i, r ?

Catherine Dufour : P, e, r, e, avec un accent.

Frédéric Couchet : P, è, r, e, OK.

Catherine Dufour : J’ai écrit un livre, le Guide des métiers pour les petites filles qui ne veulent pas finir princesses, où je donne des modèles c’est-à-dire des biographies de femmes informaticiennes, mathématiciennes, chercheuses d’or, agentes secrètes, surfeuses, bref, tout un tas de métiers rigolos et que traditionnellement les femmes ne font pas. Donc je me suis intéressée aux biographies de ces femmes-là, celles qui font de la voile, celles qui font du combat rapproché, enfin bref, des choses vues comme masculines. Systématiquement, c’est le père qui autorise. Émilie du Châtelet qui est une grosse génie mathématique du 18e siècle, c’est son père qui lui a donné l’autorisation de faire et je retrouve très souvent le père comme moteur du fait qu’une femme s’affranchisse des limites imposées à son genre. Donc messieurs, si vous vous sentez féministes, le meilleur service que vous pouvez rendre aux femmes c’est d’autoriser votre fille à sortir justement de ces limites, l’autoriser et lui donner les moyens. Véritablement, ça se retrouve systématiquement.

Frédéric Couchet : D’accord. Excellente intervention. On reviendra sur la partie éducation encore plus en détail après.
Caroline, tout à l’heure tu avais commencé à citer quelques points qui aggravent la situation. On a bien compris l’historique, mais aujourd’hui il y a des choses qui aggravent. Est-ce qu’on peut faire un petit peu tour d’horizon rapide et peut-être les choses qui permettent, justement, de corriger ces points négatifs et les propositions concrètes ? Là on parlera un peu plus de vos structures et de vos actions. Qu’est-ce qui aggrave aujourd’hui la situation qui n’est déjà pas très belle ?

Caroline Corbal : Déjà, je dirais que ça dépend du point de vue où se place. Si on se place au niveau des organisations, par exemple des entreprises et des associations qui sont deux milieux que j’ai pu pas mal expérimenter, ce que j’ai observé c’est que le manque de dialogue est vraiment un souci. Entre équipes on a vraiment besoin de se parler, de se dire quelles sont nos attentes sur ces sujets-là au risque d’entretenir des situations qui sont non satisfaisantes. Ensuite, je pense qu’un des soucis c’est le manque de prise de risque : par exemple prise de risque lors d’évènements à inviter des intervenantes qui sont moins expérimentées, en se disant qu’on veut tel ou tel nom masculin parce que c’est une valeur sûre. En fait, je pense qu’il faut vraiment qu’on apprenne à faire confiance à des femmes plus jeunes et si on ne le fait pas c’est un cercle vicieux et ces femmes-là ne pourront jamais se former.
Ensuite, je pense que la manière dont les enjeux de diversité et d’inclusion sont traités aggrave parfois le problème parce que soit c’est traité comme des enjeux de communication sans action concrète derrière ce qui peut les desservir, soit, en fait, c’est l’inverse, on n’en parle pas parce qu’on a peur de mal faire, de mal en parler, de ne pas utiliser les bons termes, par exemple de faire peur à ses clients ou au public et ça je pense que c’est vraiment regrettable.
Et dernier mot là-dessus, au niveau global aussi, je pense que l’absence de rôles modèles joue un rôle clé parce que nos cultures numériques sont vraiment peuplées d’icônes masculines. Que ces hommes-là nous inspirent ou non, on peut tous citer leurs noms alors que ce n’est pas le cas de la plupart des femmes qui excellent aujourd’hui dans le milieu informatique. Je pense que ça aggrave vraiment le problème parce que les jeunes filles ne peuvent pas s’identifier à des rôles modèles féminins.

Frédéric Couchet : Très bien. En plus ça me fait rebondir sur le livre de Catherine Dufour, Guide des métiers pour les petites filles qui ne veulent pas finir princesses où vous avez justement des rôles modèles.

Catherine Dufour : Des rôles modèles, c’était le but.

Frédéric Couchet : Des rôles modèles, anciennes et actuelles, ça c’est important et on reviendra aussi tout à l’heure sur le rôle important joué sur ce rôle modèle notamment avec Duchess France pour la mise en valeur des rôles modèles. Est-ce que vous voulez compléter, Katia ou Catherine, sur cette partie vraiment aggravation de la situation ou est-ce qu’on passe directement aux choses plutôt positives, c’est-à-dire comment améliorer les choses ?

Catherine Dufour : Je suis tout à fait d’accord avec ce que dit Caroline. En plus, moins il y a d’intervenantes moins il y a d’intervenantes. C’est-à-dire que quand on veut convier, avoir un minimum de parité et qu’on convie une femme, elle a déjà 80 invitations parce qu’elle est un peu toute seule. C’est un problème que je rencontre fréquemment. Il y a quand même des solutions, il y a un site qui s’appelle expertes.fr qui est très bien, où vous allez trouver des femmes d’absolument toutes les couleurs dans toutes les disciplines. Surtout n’hésitez pas à aller sur ce site-là, il est génial pour trouver de la ressource.

Frédéric Couchet : Katia.

Katia Aresti : Rien. Je pense que tout a été dit et très bien expliqué.

Frédéric Couchet : On va parler des propositions concrètes ou en tout cas pour résoudre ce problème. Ça va être aussi l’occasion de présenter un peu vos initiatives et sans doute d’autres initiatives, il n’y a pas que les vôtres, évidemment. On va peut-être commencer par Duchess France avec Katia Aresti. Comme tu l’as dit tu es développeuse chez Red Hat, une entreprise du logiciel libre, et tu fais partie de Duchess France. Quel est l’objectif de Duchess France et quelles sont vos principales actions ?

Katia Aresti : Duchess France est une association qui a été créée début 2010 par quatre femmes qui avaient fait un constat : justement, elles faisaient des soirées techniques à Paris et elles se disaient « pourquoi il n’y a pas plus de femmes ? Elles sont où les autres femmes, etc. ? Peut-être qu’elles ne sont pas motivées à venir à des soirées, etc. » Du coup elles ont créé ça avec justement l’idée de dire « vous n’êtes pas toutes seules, il y a plus de développeuses et de femmes techniques donc rencontrons-nous et créons ». Ça c’était l’origine du groupe. Je me suis inscrite au groupe dès le départ, dès la création en mars 2010, et ensuite, deux/trois mois après, je suis devenue membre organisatrice. Donc je ne suis pas fondatrice, mais je suis là depuis la fondation. Nos actions sont là principalement pour mettre en avant justement des femmes pour que d’autres femmes s’inspirent des différents parcours, mettre en place toute une communauté sur Slack dans laquelle aujourd’hui on peut discuter.

Frédéric Couchet : Précise ce qu’est Slack.

Katia Aresti : Slack c’est un chat, un logiciel qui sert à créer des canaux de chat.

Frédéric Couchet : De communication.

Katia Aresti : Voilà. Du coup on peut poster sur différents sujets, échanger, etc., des trucs techniques comme personnels, n’importe quoi. On organise aussi des soirées techniques à Paris. On essaye que les intervenants dans les soirées techniques soient des femmes ou un homme et une femme. Parfois ce n’est pas possible, du coup on ne va pas refuser quelqu’un qui veut venir parler à Duchess parce que c’est un homme, mais le but c’est vraiment de pousser les femmes à parler, à partager leurs connaissances techniques, donc on fait des soirées autour de ça. Ça peut aussi être simplement un apéro. On fait plein de choses. Le truc n’est pas méga structuré dans le sens où on n’a pas une soirée tous les mois, je ne sais pas comment, c’est vraiment selon les besoins.

Frédéric Couchet : Au feeling.

Katia Aresti : Au feeling et selon les disponibilités de chacune parce qu’on fait quand même tout ça en bénévolat et du coup ça prend quand même un temps fou et la plupart nous avons une vie de travail plus famille plus mille trucs. La communauté est quand même assez grande et sur Meetup qui est un site justement pour rassembler, pour organiser des évènements et faire en sorte que les gens s’inscrivent, on était pas loin de 2500 inscrits ou 3000. En fait il y a plein de meetups donc de soirées techniques comme ça sur Paris et mon constat est que quand c’est Duchess qui l’organise la moitié des personnes qui assistent, sur des soirées très techniques, ce sont souvent des femmes. Alors que d’autres soirées techniques organisées par d’autres groupes, peut-être pas une femme, voire zéro, le pourcentage est vraiment beaucoup plus petit. Mais nous on n’organise pas que pour les femmes, on ne ferme à personne, en fait.

Frédéric Couchet : D’accord. On reviendra sur ta remarque, notamment sur les réunions mixtes ou non-mixtes ; les réunions non-mixtes peuvent avoir leur importance. Je relaie une question ou plutôt une suggestion qui est sur le salon web – n’hésitez pas à vous joindre à nous sur causecommune.fm –, Marie-Odile qui suggère sous forme de question d’enregistrer les conférences et de les publier et en plus je pense qu’elle pourrait rajouter qu’elle va les transcrire parce Marie-Odile c’est la personne qui transcrit les conférences. Question : est-ce que ces conférences sont enregistrées ?

Katia Aresti : Celles qu’on fait avec Duchess ?

Frédéric Couchet : Oui.

Katia Aresti : S'il y a moyen dans la salle qui nous héberge, oui, mais sinon non et parfois ce sont juste des ateliers de coding, c’est pour les pros. Souvent, ce qu’on fait, c’est pour les pros, ce n’est pas pour initier les gens au code, on est là vraiment pour les pros, donc ce sont des choses techniquement assez poussées, en fait.

Frédéric Couchet : D’accord. Caroline Corbal, de ton côté Open Heroines je pense que c’est assez proche. Tu vas nous expliquer ça. D’où vient Open Heroines et qu’est-ce que vous faites ?

Caroline Corbal : Il y a quelques similitudes avec ce que vient de dire Katia. Open Heroines, en fait, c’est un collectif international qui a été créé il y a quatre ans pour rassembler les voix de femmes qui agissent dans le numérique ouvert. Par numérique ouvert on entend le logiciel libre, l’open data, l’open gov, les communs numériques, etc. C’est un réseau international. Pour le coup c’est fermé aux hommes, c’est uniquement pour les femmes, elles se retrouvent sur un Slack international. Avec une amie, Cécile Le Guen, il y a deux ans on a décidé d’ouvrir le chapitre français de ce réseau face au constat qu’on rencontrait encore dans nos environnements professionnels trop de situations de sexisme ordinaire et qu’on avait vraiment besoin d’en parler entre femmes dans des espaces safe, où on se sent en sécurité pour en parler. Open Heroines en France est un réseau de confiance dans lequel chacune est bienvenue. C’est complètement informel, il n’y a pas de bullshit, pas de post-it.

Frédéric Couchet : Pas de quoi ?

Caroline Corbal : De bullshit. Comment on dit en français ? On parle de choses sérieuses quoi ! On parle de choses sérieuses, il n’y a pas de post-it, pas d’ordre du jour, pas de feuille de route. On va boire des bières [ou autres, Note de l'intervenante]) régulièrement. On a une boucle sur l’application Telegram pour échanger, sur laquelle toutes les femmes sont les bienvenues. D’ailleurs il y a aussi des femmes qui ne sont pas dans le numérique qui nous rejoignent parce qu’elles sont intéressées par nos discussions. De temps en temps on monte des projets quand le besoin s’en fait ressentir. Par exemple, récemment, on a organisé une soirée sur les femmes et la politique pour aider des jeunes femmes à s’engager en politique ; là ça dépasse un peu le sujet du numérique. Si vous souhaitez nous rejoindre n’hésitez pas à me contacter et je vous rajouterai dans la boucle des discussions.

Catherine Dufour : Volontiers. Oui.

Frédéric Couchet : D’accord. Invitation lancée. Petite question sur les ateliers ou, en tout cas, sur les rencontres non-mixtes, est-ce que tu pourrais expliquer l’importance de ces rencontres non-mixtes ? C’est un sujet qui a souvent été un sujet de discussion dans les communautés et mal compris. Est-ce que tu peux nous expliquer, ou bien sûr Katia et Catherine, l’importance de ces rencontres entre femmes ?

Caroline Corbal : En fait c’est vraiment là, pour le coup, venu du constat qu’entre femmes on ne se parle pas de la même manière que quand il y a des hommes et qu’il y a aussi beaucoup de femmes qui ne viennent pas à des réunions où il y a des hommes ou alors, si elles viennent, elles n’osent pas prendre la parole de la même manière. Vu l’ensemble des problèmes qu’on rencontrait, on avait besoin d’espaces où on se sent en sécurité, on se sent bien pour aborder ces problèmes. Parfois on parle de soucis liés justement au sexisme ordinaire, de tous ces sujets-là, là on est encore mieux pour en parler entre femmes puisqu’on peut en parler librement, mais on parle aussi d’autres sujets. Je pense que la non-mixité n’est pas l’unique solution mais c’est une solution, c’est quelque chose qui est fondamental déjà pour que les femmes puissent s’organiser entre elles et trouver des solutions.

Frédéric Couchet : D’accord. On va revenir sur ce sujet-là, les propositions concrètes, parce que j’ai vu sur vos sites que vous avez pas mal de propositions, notamment on reviendra sur l’organisation des conférences, justement quels conseils on peut donner aux structures qui organisent des conférences.

On va faire une pause musicale. On va écouter Age of Feminine par Kellee Maize. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.

Pause musicale : Age of Feminine par Kellee Maize.

Voix off : Cause Commune - 93.1.

Frédéric Couchet : Nous venons d’écouter Age of Feminine par Kellee Maize disponible sous licence libre Creative Commons Partage dans les mêmes conditions.

Vous écoutez l’émission Libre à vous ! sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.

Nous allons poursuivre notre discussion concernant les femmes, l’informatique et le logiciel libre, toujours avec Catherine Dufour, Katia Aresti et Caroline Corbal. Juste avant la pause musicale nous parlions d’Open Heroines et de Duchess France ; je précise que Duchess c’est sans « e » à la fin ; on citera les sites à la fin de l'émission, on les mettra évidemment en référence et vous les retrouverez sur les sites de l’April et de Cause Commune. On commençait un petit peu à parler des propositions, des pratiques des unes et des autres dans vos structures. Tout à l’heure Caroline Corbal, dans les problématiques, a cité ce qu’on appelle les « manels », c’est-à-dire les panels d’intervenants avec que des hommes. Effectivement il y a beaucoup de conférences où on retrouve principalement des hommes. Quels conseils donnez-vous et d’ailleurs je crois, Katia Aresti, de mémoire, que tu participes à un comité de programmes ?

Katia Aresti : Oui.

Frédéric Couchet : On va commencer par Caroline parce qu'elle est au téléphone. Quels conseils vous pourriez donner aux personnes qui organisent des conférences ou des tables rondes ou des évènements soit informatiques soit libristes, peu importe, justement pour donner aux femmes la place qu'elles méritent d’avoir ? Caroline Corbal.

Caroline Corbal : Déjà d’être vigilants sur cette question des « manels ». Déjà avoir un comité de programmes paritaire il me semble que c’est un bon départ, c’est même une condition minimum. Ensuite, pour aller trouver des profils féminins, la question du référencement qui a été évoquée par Catherine tout à l’heure, il y a la plateforme Les expertes qui, du coup, est disponible et consultable et une autre plateforme pour l’international qui s’appelle speakerinnen.org où il y a pas de mal de profils féminins qui sont référencés. Le souci c’est qu’il y a pas mal de femmes qui n’osent pas encore se référencer sur ces plateformes.

Catherine Dufour : speaker quoi ?

Frédéric Couchet : speakerinnen.org.

Caroline Corbal : speakerinnen.

Frédéric Couchet : On mettra les références sur le site de la radio et sur le site de l’April puisque, effectivement, ce n’est pas évident à prononcer. Je précise aussi et je te redonne la parole que sur Duchess France il y a une liste d’expertes techniques, c’est d’ailleurs là que j’avais trouvé Katia Aresti quand je cherchais une développeuse pour l’émission de l’April. Je te laisse poursuivre.

Caroline Corbal : Je disais qu’il y a pas mal de femmes qui ne se référencent pas par manque d’information ou parce qu’elles ne se sentent pas légitimes à revendiquer une expertise. Mon message c’est vraiment « référencez-vous, vous êtes légitimes et votre parole compte » et si vous êtes un homme vous pouvez aussi référencer les femmes autour de vous ou, en tout cas, les inciter à le faire, leur en parler.
Ensuite, pour terminer sur les conférences, je pense qu’il est important de créer un environnement dans lequel chacun et chacune se sente en confiance pour intervenir et que, pour ça, avoir des outils comme un code de conduite c’est quelque chose qui est tout à fait nécessaire pour créer des environnements dans lesquels on se sent en confiance. Il y a aussi tout un tas d’outils qui sont expérimentés dans des conférences, beaucoup de conférences aux États-Unis où, par exemple à l’entrée de la conférence, on vous donne un badge avec le prénom par lequel vous voulez qu’on vous nomme lors de la conférence, est-ce que vous souhaitez ou non être pris en photo, etc.

Frédéric Couchet : D’accord. Katia Aresti.

Katia Aresti : Déjà je vais rajouter que ce qui arrive souvent aujourd’hui dans les conférences dès qu’il y a un panel dans lequel il n’y a pas de femmes, il y a quand même un peu de tweet bashing sur la conférence en mode « mais pourquoi il n’y a ? Qu’est-ce que vous avez fait ? Vous avez fait de la merde, etc. » Et, en fait, souvent ce sont des hommes qui organisent ou qui ont une équipe dans laquelle il y a peut-être une ou deux femmes et majoritairement des hommes qui ont quand même fait un effort de chercher, mais les femmes ont dit non pour y aller parce que souvent nous sommes les mêmes qui sommes sollicitées. Pourquoi je trouve que c’est un problème ? Ce n’est pas que nous disons non, le problème est que souvent il arrive que les personnes qui organisent se disent « ah, on veut inviter justement des femmes mais qui sont ces femmes-là ? » Iils les connaissent très peu parce qu’en fait ça ne suffit pas de s’intéresser pour faire venir parler des femmes, juste pour cocher une case « diversité », il faut s’intéresser avant, mais bien avant, genre des mois et des mois avant que tu organises une conférence. Parce que comme ça, quand on va t’inviter, tu vas savoir que ce n’est pas parce que tu es femme – ce qui est une horreur quand tu te fais inviter juste parce que tu es une femme – parce que dès tu es visible tu es quand même un peu sursollicitée et tu as quand même cette impression-là. C’est un truc qui revient souvent quand on discute chez Duchess France, tu te dis « est-ce qu’on m’invite parce que je suis légitime ou juste parce que je suis une femme et que je vais cocher une case "diversité" ». Mais quand tu es invitée parce qu’on connaît ton travail et qu'on t’invite parce qu’on te veut, on a beaucoup plus tendance à dire oui et à ne pas sentir ce syndrome d’imposteur pour y aller et oser se lancer.
Le conseil fondamental que je donne aux gens, comme l’a déjà dit Caroline, avoir une équipe mixte c’est très bien parce que souvent les femmes s’intéressent à d’autres femmes, mais les hommes qui sont en train d’organiser doivent aussi s’intéresser à ce que font leurs collègues féminines, s’intéresser avec beaucoup d’avance. C’est quand même comme ça que cette communauté se crée, qu’elle s’agrandit et les femmes ont vraiment envie d’aller parler dans leurs conférences. Tu ne vas pas avoir cette impression de « oui on m’invite parce qu’ils veulent cocher une case "diversité" et pas avoir un Twitter bashing derrière ».

Frédéric Couchet : Ce que je trouve bien, après je donne la parole à Catherine Dufour, notamment sur Duchess France ou d’autres sites comme ça, c’est que votre expertise est mise en avant, notamment la tienne sur ton développement. En fait, je connais quelqu’un dans le monde du logiciel, ça fait longtemps que je ne l’ai pas vue, c’est Agnès Crépet que tu connais, qui est maintenant à Amsterdam chez Fairphone, donc en cherchant un petit peu les profils techniques j’ai vu que ce qui était mis en avant tout ce sont vos compétences techniques. Nous on cherchait évidemment quelqu’un qui avait une expérience technique et aussi une longue expérience dans le développement logiciel, ce qui n’est pas forcément évident comme tu le disais au début, les gens qui ont 15 ans d’expérience dans le développement logiciel, ce n’est pas évident. Dans cette émission on voulait vraiment quelqu’un qui fait du développement et pas quelqu’un qui est devenu chef de projet. Ce que je trouve bien sur ces sites-là ce sont ces mises en avant de la compétence technique, mais, comme tu le dis effectivement, il ne faut pas s’y intéresser au dernier moment, ça nécessite un travail et je pense, je poserai peut-être la question, que ça ne doit pas reposer, dans les communautés de programmes, que sur les femmes ; ça doit être la responsabilité du comité de programmes globalement d’avoir cette démarche-là.
Une autre question me vient à l’esprit et je te laisse réagir, une question comme ça vous pourrez y répondre, un truc qui est dur à combattre c’est peut-être l’habitude des hommes, des réseaux, d’être entre eux ? Est-ce que vous avez vécu ça par exemple quand vous participez à des comités de programmes ou des évènements, cette habitude que les hommes ont d’être entre eux ?

Katia Aresti : Justement, je pense que c’est quelque chose que moi, comme femme, je vais avoir encore plus tendance à aller m’intéresser à des femmes, mais je m’intéresse aussi aux hommes parce que c’est un milieu dans lequel j’ai énormément de collègues masculins ; je suis tellement habituée, j’ai beaucoup d’amis hommes dans l’informatique, mais du coup je vais avoir cet intérêt-là. Donc je comprends que les hommes, par défaut, aient un intérêt pour d’autres hommes, comme tu dis, mais il faut qu’on essaye tous de briser ça, des deux côtés en fait. C’est ça qui va aider à s’ouvrir à des choses. Justement, peut-être qu’au début tu ne vas pas forcément t’intéresser à ce que font d’autres gens et, en plus, pas que par rapport homme-femme mais aussi par rapport techniquement. Si tu fais beaucoup de trucs mais back-end.

Frédéric Couchet : Back-end ?

Katia Aresti : Désolée. Si tu fais beaucoup de Java peut-être que tu devrais t’intéresser aussi à ce qui se passe en JavaScript.

Frédéric Couchet : Ce sont deux langages de programmation qui ne sont pas exactement pareils. Il faut de l’ouverture.

Katia Aresti : Voilà. Il faut une ouverture dans tous les aspects, ça aide à aller justement sur un truc beaucoup plus diversifié dans tous les sens.

Frédéric Couchet : D’accord. Catherine Dufour je vous laisse réagir là-dessus et j’étends la question au monde professionnel sur le recrutement. Comment aujourd’hui, dans le recrutement en informatique, on peut encourager à avoir plus de femmes qui candidatent à des postes et qui sont recrutées après ? Catherine Dufour.

Catherine Dufour : Je me rappelle de mes débuts en tant qu’auteure, autrice de science-fiction ; des autrices de science-fiction en France à l’époque – je parle de ça parce que je suis la cacochyme de l’émission, j’ai 53 ans –, donc il y a une vingtaine d’années, on était trois autrices de science-fiction. Eh bien j’y suis allée ! J’étais timide et je n’aimais parler ni sur des estrades ni dans le poste. Et j’y suis allée parce que sinon il n’y avait pas de femmes, il n’y avait personne. Il faut y aller et après il faut arracher le micro des mains des hommes, vous leur tapez sur la tête avec et vous prenez la parole. Vous n’êtes pas aimable et souriante parce que c’est ce qu’on attend de vous et vous parlez et vous râlez et vous protestez ; il n’y a que comme ça qu’on y arrivera. Peut-être que dans trois générations le sexisme ne sera plus qu’un mauvais souvenir, mais pour le moment le peu de femmes qui accèdent justement à un micro doit absolument y aller pour défendre les autres. Vous ressentirez, de toute façon, le syndrome de l’imposteur parce qu’on l’a toutes – de toute façon les bons ont le syndrome de l’imposteur, mâles comme femelles. Vous l’attrapez, vous faites comme Virginia Woolf, vous lui tordez le cou, après vous le mettez sur votre chaise et vous vous asseyez dessus des deux fesses.
Je suis allée à des tas de conférences avec des hommes ; ils parlent bien, ils ont un bel organe, ça déroule et ils ne me passent jamais le micro. Tout ça c’est une question de pouvoir. Finalement tout ça c’est une question d’argent, c’est une question de pognon ; il y a un gâteau, chacun en veut la plus grosse part. Il est évident que ce sont les hommes qui ont la main dessus et s’ils ouvrent la porte et qu’ils laissent entrer 50 % de la population, et je ne vous parle même pas de la population non-blanche, il va y avoir beaucoup plus de monde sur le gâteau. Donc il faut juste ne pas attendre qu’on vous tende le micro, il faut le prendre et s’en servir pour taper sur la tête des autres ; ce n’est peut-être pas très gracieux mais c’est absolument indispensable.

Frédéric Couchet : Avant de donner la parole à Caroline Corbal, si vous appréciez la prise de parole de Catherine, je vous encourage à lire son livre Ada ou la beauté des nombres, vous allez notamment découvrir plein de choses sur Ada, mais, en plus, il y a de la truculence dans le texte et je précise qu’on va enregistrer une interview de Catherine Dufour, sur son livre, qui sera diffusée normalement le 19 novembre 2019, donc dans 15 jours.
Caroline, est-ce que tu veux réagir et, par rapport aux questions que j’ai étendues sur la partie recrutement, est-ce qu’il y a des choses spécifiques par rapport au recrutement dans les sociétés d’informatique ? Et la question du début que j’ai oubliée, à laquelle on n’a pas répondu, c’est : est-ce qu’il y a une spécificité, bonne ou mauvaise, dans la partie logiciel libre par rapport à l’informatique en général ou est-ce qu’il n’y a aucune spécificité ? Caroline Corbal. Ça fait beaucoup de questions !

Caroline Corbal : Ça fait beaucoup de questions. Déjà je suis en phase avec tout ce qui vient d’être dit, je rajouterais peut-être aussi sur le côté « les hommes sont beaucoup entre eux » que c’est quelque chose que j’ai énormément vu et ressenti et c’est là où je pense que la solidarité féminine doit vraiment jouer parce que j’ai aussi vécu des cas où ça n’était pas le cas et j’ai reçu des refus de femmes à m’aider, à me tendre une main, notamment parce qu’elles avaient sûrement accédé aussi à des situations de pouvoir ; c’est peut-être un mécanisme qui se répète, je ne sais pas, mais j’ai trouvé ça vraiment dur et je pense que la solidarité féminine doit être au cœur de notre action et on doit vraiment créer des réseaux d’entraide et de soutien nous aussi.
Sur la partie recrutement, je pense qu’il faut que les recruteurs pensent à adapter impérativement leur processus de recrutement, c’est-à-dire rédiger les offres de manière plus inclusive. Il faut arriver à faire comprendre aux chercheuses d’emploi qu’elles sont ciblées par ces offres et partager aussi sur les bons réseaux. Aujourd’hui il y a des dizaines de réseaux qui sont dédiés aux femmes dans le numérique et il faut envoyer ces offres sur ces réseaux-là.
Ensuite, il ne suffit pas de recruter des femmes dans vos organisations, il faut aussi les accueillir dans de bonnes conditions et ça, ça implique nécessairement d’y investir du temps humain, des moyens, donc c’est forcément un budget et il faut vraiment se donner les moyens pour arriver à progresser sur ces sujets. Ça rejoint ce qu’on disait tout à l’heure. Pour les évènements c’est exactement la même chose, il faut arriver à créer des environnements qui soient inclusifs, dans lesquels chacun et chacune se sent en confiance pour travailler. Ça rejoint, Fred, exactement ce que tu disais, je pense que ça ne doit absolument pas reposer sur une seule personne qui est trop souvent une femme. Il faut vraiment qu’on accepte que la charge mentale de la diversité soit partagée par tous en interne.
Ça ce sont des principes qu’on peut très bien, dans une organisation, élaborer collectivement, par exemple lors de sessions dédiées et ensuite les formaliser dans un document commun qui peut prendre la forme d’une charte, d’un code de conduite ou autre, peu importe la forme qu’il va prendre à la fin.

Frédéric Couchet : D’accord. Petite question avant d’aborder le sujet suivant sur le rôle de l’éducation, de l’école, des parents. Pour que les hommes évitent de se faire taper dessus avec un micro par Catherine, au-delà d’arrêter de faire des blagues sexistes au travail ou même en société, est-ce que vous avez des conseils à leur donner, des conseils pratiques ou simplement le conseil principal que vous voudriez leur donner ? Caroline.

Caroline Corbal : C’est un travail que j’avais fait avec mes collègues, notamment dans mon ancienne entreprise, l’idée c’est vraiment d’être un bon allié et pour ça, les points qu’on avait un peu élaborés, c’était déjà de dire que quand on a une discussion collective avec des hommes et des femmes autour de la même table, il faut écouter jusqu’au bout chaque prise de parole, accepter de ne pas prendre toute la place et respecter le leadership des femmes. Je sais que parfois c’est difficile mais vraiment il faut respecter le leadership des femmes et, s’il vous plaît, ne pas rire aux blagues et aux remarques sexistes par convention ; c’est quelque chose qui arrive hyper-souvent, il y a une blague qui est adressée à l’auditoire, souvent ce sont des blagues qui, en plus, ne sont pas du tout drôles et par convention, par habitude, on rit tous. Ça vraiment c’est un réflexe qu’il faut qu’on arrive à déconstruire parce que ça fait beaucoup plus de mal qu’on ne l’imagine.

Frédéric Couchet : D’accord. Sur cette partie-là est-ce que vous voulez compléter, Katia ou Catherine, avant qu’on passe au sujet suivant ? Katia Aresti.

Katia Aresti : Dans les conférences ou dans le travail ne pas affecter un rôle à une femme sur son apparence. Je dirais pareil : quand on n’assume pas que tu n'es pas assez technique ou qu'on t'assigne un rôle ou un autre, en fait, tu as l’impression qu’on ne te prend pas au sérieux. Donc assumer que la personne qui est en face de soi est aussi expérimentée que soi, qu’elle en sait autant que soi et que, si elle n’est pas technique, peut-être qu’elle va le dire elle-même. Mais ne pas penser, dans une conférence technique avec 3000 développeurs, que la femme qu'on croise fait forcément du marketing. Ce qui est très bien de faire du marketing, s’il vous plaît, c’est très bien.

Frédéric Couchet : C’est très bien. Justement ça me fait penser à une question et après je passe la parole à Catherine, par rapport au logiciel libre. Je crois qu’il y avait une statistique qui était sortie sur une plateforme de développement logiciel, peu importe le nom, qui listait le pourcentage d’acceptation de code venant d’un pseudo de genre masculin ou de genre féminin et quand c’était un genre féminin, il y avait moins de chance que le code soit accepté rapidement. Est-ce que je me trompe ou est-ce que c’est une réalité ?

Katia Aresti : Dans mon expérience, j’ai une équipe remote.

Frédéric Couchet : À distance.

Katia Aresti : On est distribués dans le monde, ils sont tous garçons sauf moi, et je ne me sens pas différente des autres. En fait, mon équipe est super : je me sens appuyée, soutenue. Quand il faut dire que ce n’est pas bien, ils le disent vraiment à tout le monde, bref !, ça c’est super. Mais je connais justement une développeuse qui était une grosse contributrice d’un gros projet open source appelé Docker, elle avait deux comptes différents dont un pour pouvoir envoyer des trucs sans qu’on sache que c’était elle et elle disait que ça passait justement plus simplement. Après, j’imagine que ça dépend de la communauté, que ça dépend du projet.

Frédéric Couchet : Je crois que c’est une statistique qui a été faite sur GitHub qui est une plateforme de développement, mais on vérifiera et on mettra les liens si besoin. Peut-être que je me trompe, mais mon intuition ne doit pas être loin. Caroline.

Caroline Corbal : Tu as tout à fait raison, c’est une étude qui était sortie en 2016 sur GitHub qui s’appelle Gender bias in open source.

Frédéric Couchet : Les biais de genre dans le logiciel libre. Voilà.

Caroline Corbal : Exactement.

Frédéric Couchet : D’accord. On mettra les références sur les sites de la radio et de l’April. Catherine Dufour.

Catherine Dufour : Si on veut en savoir un peu plus, de façon chiffrée, sur ce problème-là, cette problématique-là dans le monde du travail, il faut lire TGS, Travail Genre et Sociétés. C’est une revue qui est menée depuis, je ne sais pas, 20/30 ans, en tout cas fondée par madame Maruani. Ils vont tout simplement poser des questions aux jeunes : que veux-tu faire plus tard ? Et c’est toujours la même chose. Quand une jeune fille dit « moi je veux être maître-chien », on lui dit « mais non, c’est mieux coiffeuse. » Quand un homme veut être coiffeur, il arrive dans une promo où elles sont 99 et il est tout seul, il est accueilli, bien sûr, comme le Saint-Sacrement. Quand une femme décide de faire génie mécanique, sur une promo de 100 elles sont deux, les autres étudiants n’ont de cesse de dessiner des bites sur leurs boîtes à outils, de faire des bruits de bouche et de faire, bien sûr, des blagues sexistes qui vous ravalent à votre foufoune jusqu’à ce que, en général, sur les deux il y en a au moins une qui craque et qui va faire coiffeuse ! Malheureusement ça ne change pas tellement et il est évident qu’on rêve de pouvoir compter sur une solidarité féminine. Les femmes c’est comme n’importe quel peuple opprimé, il y en a quand même un sacré nombre qui ont intériorisé leur infériorité et qui se feront couper en deux plutôt que de montrer la moindre solidarité. Et ça c’est un vrai problème !
Le problème de la misogynie féminine, permettez-moi de vous dire, c’est encore une terra incognita à défricher ; je vais laisser des femmes plus jeunes que moi se débrouiller avec et j’en suis ravie !

[Rires]

Frédéric Couchet : Vous venez de parler des enfants quand ils ont des ambitions de métier quel qu’il soit. Justement, c’est le dernier sujet, enfin l’avant-dernier avant les petits conseils de lecture et de podcasts sur le rôle, même si on en a déjà un peu parlé tout à l’heure, de l’éducation, des parents, de l’école. Katia a raconté son expérience avec son papa. Tout à l’heure Catherine Dufour a expliqué le rôle central du père dans l’autorisation de faire telle ou telle chose. Est-ce que vous voulez ajouter quelque chose sur ce point-là ? Est-ce que vous avez des conseils à donner aux parents, aux amis des parents ou, tout simplement, au système éducatif français. Caroline.

Caroline Corbal : Oui, sur le système éducatif, que l’école apprenne davantage déjà à connaître les nouveaux métiers qui utilisent le numérique. Tous les métiers, maintenant, vont utiliser du numérique - s’ils ne le font pas déjà - et je pense qu’il faut que les conseillers d’orientation et les profs qui accompagnent les élèves dans leurs choix puissent mieux parler de ces métiers-là, davantage les valoriser, les rendre plus attractifs pour donner plus envie ; en parler évidemment de la même manière aux filles et aux garçons et ensuite je pense qu’il y a un rôle fort des écoles de code. Les écoles de code doivent aussi apprendre à lutter contre les situations de sexisme, je pense notamment aux polémiques qu’il y avait eues avec l’École 42 qui faisaient un petit peu froid dans le dos quand on lisait des témoignages de jeunes filles qui étaient entrées brillamment dans cette école et qui en étaient sorties après quelques mois tellement elles disaient qu’elles expérimentaient au quotidien des situations de sexisme, de blagues, de réflexions sur leur tenue, etc.

Frédéric Couchet : Ça me fait penser, en termes d’école, et après je vais passer la parole à Katia et à Catherine, qu’il y a une école qui vient d’ouvrir ou qui va ouvrir, qui s’appelle Ada Tech School, principalement à Paris je crois, sauf erreur de ma part, mais on vérifiera, qui est une école qui est ouverte à toute personne mais qui affiche très clairement, justement, un accueil bienveillant, inclusif, etc. Le nom de Ada est évidemment choisi en référence à Ada Lovelace dont on parlera sans doute le 19 novembre avec Catherine Dufour.
Sur cette partie éducation, parents, enfants, amis des parents aussi parce qu’ils ont des rôles par rapport aux enfants, Katia Aresti tu veux ajouter quelque chose ?

Katia Aresti : Je ne sais pas, mais je constate que les enfants tout petits jouent vraiment au rôle de l’imitation, mais vraiment ! J’ai deux filles. Elles ont deux ans d’écart. Quand ma fille aînée a vu qu’on a vu qu’on avait un petit bébé à la maison, elle a commencé à jouer à s’occuper des bébés. Et un jour, aussi, elle a monté un petit truc en Lego à la con, quand elle avait trois ans et demi et d’un coup elle s’est mise à faire « tic, tic, tic » comme ça. Le papa lui a demandé « qu’est-ce tu fais ? — Je fais comme maman à l’ordinateur. » ; « tic, tic, tic ».

Frédéric Couchet : Comme on est à la radio, je précise que Katia est en train de mimer quelqu’un qui tape sur un clavier.

Katia Aresti : Désolée. D’un coup, je me croyais à la télé !

Frédéric Couchet : Bientôt !

Katia Aresti : Ce que je veux dire c’est qu’il y a un rôle d’imitation très fort qui se fait : les enfants imitent tout. Justement il faut éviter de tomber dans des cases en tant que parent. Après il y a nous, il y a l’école, il y a les autres parents, il y a tout le monde. Moi je n’achetais pas de fringues roses à ma fille, mais là c’est juste pas possible, elle en veut. Malgré moi ! Du coup je ne sais pas comment faire. Je lui dis non ? Eh bien non, je lui achète aussi des trucs roses, à un moment donné je choisis mes batailles ! Je veux dire qu’il y a pas que nous. Essayer de montrer différents exemples, surtout donner des choix et ne pas s’enfermer sur les box de marketing : ça c’est pour les filles, ça c’est pour les garçons, essayer de surpasser tout ça.

Frédéric Couchet : OK ! Catherine Dufour, vous vouliez réagir ?

Catherine Dufour : Oui. En général on essaye de donner l’éducation qu’on juge bonne à ses enfants et la société vient tout vous pourrir derrière, notamment en gavant les petites files de rose.
Il y a une très jolie petite histoire : madame de Maintenon, l’épouse de Louis XIV, ouvre une école pour filles justement à Saint Cyr [Maison royale de Saint-Louis]. Elle avait été une petite jeune fille plutôt mignonne, qui s’achetait des petites dentelles et puis elle se mettait devant son miroir et elle se faisait des mines et des duckfaces comme toutes les gamines. Dans son école, deux bonnes sœurs ont chopé des gamines en train de se mettre du rouge à lèvres, quelque chose comme ça. Elles sont allées voir madame de Maintenon en disant qu’est-ce qu’on fait ? Est-ce qu’on les pend sur la place publique ? Est-ce qu’on leur donne 200 Ave et 200 Pater à réciter ? Et madame de Maintenon a répondu : « Pour mourir à ces délicatesses il faut y avoir vécu, laissez-les faire ». C’est-à-dire que globalement les petites filles il faut les laisser se gaver de rose jusqu’à ce qu’elles n’en puissent plus, elles lâcheront elles-mêmes la chose en temps voulu. On ne peut pas lutter contre la société complètement, on peut aiguiller et puis il ne faut quand même pas trop s’inquiéter : un gamin qui n’est pas trop contrarié sur une de ses lubies finira fatalement par passer par autre chose et s’il est intelligent ou intelligente par passer à quelque chose de bien.

Frédéric Couchet : D’accord. Il nous reste deux/trois minutes, donc ça va être la dernière question : quels conseils, ça peut être de lectures, de podcasts, de vidéos ou autres, vous conseilleriez que ce soit aux femmes, aux hommes, aux parents, aux enfants. On va commencer par Caroline Corbal.

Caroline Corbal : Moi j’avais pensé à trois choses. Ce n’est pas lié directement au numérique mais de sont des supports, des œuvres qui traitent de sujets féministes et qui me semblent très inspirants et éclairants pour comprendre les mécanismes qui sous-tendent les dynamiques sexistes qui sont à l’œuvre dans le numérique.
En podcast j’avais pensé au podcast Les couilles sur la table qui est animé et pensé par Victoire Tuaillon, qui sort bientôt en livre et qui est hyper-intéressant. Et aussi « Un podcast à soi » de Charlotte Bienaimé.
En BD, toutes les BD de Liv Strömquist qui est une auteure suédoise, qui est hyper-drôle en plus et je pense notamment à L'Origine du monde ou à I'm every woman. C’est drôle, ça apprend plein de trucs sur le féminisme et ça donne des grilles de lecture vraiment assez intéressantes je trouve.
Et puis l’excellent Sorcières, la puissance invaincue des femmes de Mona Chollet qui là, pour le coup, est un peu plus dense mais qui est tout aussi intéressant.

Frédéric Couchet : Tu m’enverras les références précises pour que je les rajoute sur le site. Je confirme que le podcast Les couilles sur la table de Victoire Tuaillon est excellent.
Catherine Dufour, au-delà de vos livres, j’encourage vraiment à lire Ada ou la beauté des nombres – je l’ai fini avant-hier – et l’autre que je n’ai pas lu, que je vais commander, qui est le Guide des métiers pour les petites filles qui ne veulent pas finir princesses, est-ce que vous avez des conseils de lecture, de podcasts ou autres ?

Catherine Dufour : J’aurais un peu les mêmes. Vous pouvez faire tout Mona Chollet et après vous passerez à Naomi Klein et vous commencerez par Caliban et la Sorcière (Note de transcription : il s'agit en fait de Sylvia Federici). Après on se recause.

Frédéric Couchet : Mona Cholet, je crois que c’est l’an dernier ou il y a deux ans, a publié un livre Sorcières, la puissance invaincue des femmes.

Catherine Dufour : Sorcières. Avant elle avait fait un livre je ne me souviens plus du titre c’est sur la façon d’habiter chez soi [Chez soi, une odyssée de l'espace domestique] et avant elle avait fait Beauté fatale, les nouveaux visages d'une aliénation féminine. Tout Mona Cholet est effectivement incontournable.
Si vous préférez la BD, vous pouvez passer par Les Culottées de Pénélope Bagieu, ce n’est pas mal.

Frédéric Couchet : D’accord. Pareil vous m’enverrez les références que je n’ai pas. En tout cas les personnes qui écoutez l’émission, n’hésitez pas à nous envoyer des références et il y a d’autres sites ressources : on ne va pas citer mais par exemple opensourcediversity.org sur lequel il y a pas mal de références.
Par contre on n’a pas cité les sites web : Duchess France c’est duchess-france.org sans « e » à « duchess » et vous verrez sur le site pourquoi ça s’appelle Duchess, je vous laisse découvrir, ça a un lien avec la mascotte Java.
Open Heroines, c’est quoi le site principal Caroline ?

Caroline Corbal : C’est openheroines.org et, pour le chapitre français, vous pouvez plutôt nous retrouver sur le site de codefor.fr.

Frédéric Couchet : OK. En tout cas je vous remercie, c’était passionnant et ce n’est qu’une première émission sur le sujet parce qu’il y a évidemment plein de sujets qu’on n’a pas abordés.
Nous étions avec Caroline Corbal de Code for France et d’Open Heroines, Katia Aresti développeuse chez Red Hat et Duchess France et Catherine Dufour ingénieure en informatique qui a écrit de la fantaisie et qui a publié récemment Ada ou la beauté des nombres chez Fayard et qu’on retrouvera le 19 novembre dans notre studio.
Merci à vous et passez une agréable fin de journée.

Catherine Dufour : Merci.

Katia Aresti : Merci.

Frédéric Couchet : Nous sommes de retour depuis novembre 2019 au 8 septembre 2020. Vous venez d’écouter un sujet enregistré. Je vous précise que le sujet initialement prévu aujourd’hui, l’initiation à la programmation pour les femmes qui sera donc une suite logique de l'émission diffusée à l’instant, aura lieu courant septembre. L’enregistrement va avoir lieu en septembre et sera sans doute diffusé en septembre 2020 ou en octobre 2020.

Nous allons faire une pause musicale.

[Virgule musicale]

Frédéric Couchet : Nous allons écouter With you instrumental par HaTom. On se retrouve juste après. Belle journée à l’écoute de Cause Commune, la voix des possibles.

Pause musicale : With you instrumental par HaTom.

Frédéric Couchet : Nous venons d’écouter With you instrumental par HaTom disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de la radio, causecommune.fm. Je rappelle que c’est un choix de notre nouveau programmateur musical Éric Fraudin du site Au Bout du Fil, Éric que nous aurons le plaisir d’avoir la semaine prochaine, mardi 15 septembre 2020, pour sa première chronique.

Vous écoutez toujours l’émission Libre à vous ! sur radio Cause Commune 93.1 FM et en DAB + en Île-de-France et partout dans le monde sur le site causecommune.fm.

Nous allons passer au sujet suivant.

[Virgule musicale]

Première chronique d'Antanak avec Isabelle Carrère sur le thème de l’installation d'un système d'exploitation libre

Frédéric Couchet : Nous allons poursuivre avec grand plaisir avec la première chronique d’Antanak et notamment Isabelle Carrère. Bonjour Isa.

Isabelle Carrère : Bonjour Fred.

Frédéric Couchet : Antanak, si vous vous souvenez, on en a déjà parlé dans l’émission sur le réemploi informatique, c’était le 23 juin 2020, donc dans l’émission 70 ; vous retrouverez évidemment le podcast sur le site de la radio. Et les locaux d’Antanak, comme je le disais la semaine dernière, sont juste à côté des studios de la radio, donc c’est au 18 rue Bernard Dimey dans le 18e arrondissement de Paris. Antanak est une association qui agit pour l’appropriation par toutes et tous de l’informatique.
On a le grand plaisir de t’accueillir pour une première chronique dont le thème va être justement l’installation de systèmes libres ?

Isabelle Carrère : Voilà ! Tout à fait. L’idée en fait c’était, comme tu viens de le faire, de refaire le pont avec ce qu’on avait pu évoquer avec Joyce [Markoll] lors de cette émission où tu nous avais invitées au mois de juin. On avait eu l’occasion de parler un petit peu de ce qu’est reconditionnement, réutilisation, réemploi, etc., et très rapidement on arrivait sur les utilisateurs.
Mon idée aujourd’hui, pour cette première chronique, c’était de faire un petit focus sur ce qui se passe entre les deux, donc qu’est-ce que c’est, qu’est-ce qu’on fait et comment on pratique à Antanak l’installation d’une distribution libre sur un ordinateur.

Les ordinateurs que nous avons, on l’a vu, ce sont des ordinateurs qui nous sont donnés majoritairement par des entreprises et par des particuliers. Les entreprises, on le sait, gardent à peu près entre trois et cinq ans leur matériel avant de s’en débarrasser, tout ou partie, elles font ça par vagues en général. Qu’est-ce qui se passe à ce moment-là, elles considèrent donc, comme les particuliers considèrent de la même manière les ordinateurs qu’ils viennent nous donner, comme obsolètes. De quoi parle-t-on et c’est quoi cette obsolescence-là ? En fait, c’est parce qu’ils considèrent qu’il y a un moment où l’ordinateur n’est plus performant. Mais de quelle performance parlons-nous ? Ce n’est pas aux auditeurs et auditrices de l’April que je vais expliquer ces choses-là. Il y a quand même trois grands champs sur le sujet de la performance.

Frédéric Couchet : Tu peux expliquer parce que majoritairement les auditeurs et auditrices de Cause Commune ne sont pas membres de l’April, je pense.

Isabelle Carrère : Pas majoritairement. Mais enfin, à Libre à vous !, j’imagine qu’il y a pas mal de gens qui s’y connaissent, désolée pour celles et ceux pour qui tout cela est une évidence.
Les trois points : quand on parle de performance pour un ordinateur on dit quoi ?
La question du débit possible, donc les entrées-sorties. Qu’est-ce qu’un appareil est en capacité de retranscrire, retransmettre, qu’il s’agisse d’ailleurs des choses externes, comme ce qu’on va voir par Internet par exemple, mais aussi les capacités internes d’un poste. Ça veut dire le lien, le débit entre un périphérique et l’ordinateur : entre un moniteur pour avoir un affichage à l’écran, une clef USB, un micro, une imprimante, peu importe, mais voilà !, quel est le débit possible, c’est la première notion dans la performance.
La deuxième c’est le processeur lui-même. Le processeur ça veut dire temps d’exécution d’une instruction qui a été fournie par un programme et/ou la capacité de calcul de l’appareil : en une seconde combien de calculs il peut faire et qu’est-ce qu’il peut travailler ? Ça c’est pour le processeur.
La troisième chose ça va être la capacité de mémorisation. Mémorisation à la fois dans la mémoire vive qu’on appelle la RAM, ou celle qu’on ajoute en swap, et la mémoire dite morte qui est celle des données sur le disque dur.
Du coup, quand on nous donne un ordinateur ce sont ces trois choses-là qu’on va aller regarder, vérifier, une fois, évidemment, qu’on a fait du nettoyage parce que c’est rare que les ordinateurs nous arrivent très propres et on les nettoie.

Frédéric Couchet : Quand tu parles de nettoyage, c’est nettoyage des données ?

Isabelle Carrère : Oui et non. Les deux. Tu as raison, il y a le nettoyage des données, évidemment, mais là je parlais plus en termes de nettoyage physique, je suis vraiment sur la machine elle-même, donc on démonte tout et on remonte tout parce qu’en général il y a beaucoup de poussière qui s’est infiltrée un peu partout quand ce n’est pas pire que de la poussière !
Ce qui est intéressant avec ces trois sujets c’est de quoi parle-t-on ? La performance pour les entreprises ou les gens qui considèrent que l’ordinateur ne leur suffit plus c’est quoi ? C’est vitesse et quantité. Rapidité d’obtention de l’information et nombre d’informations que je suis capable d’obtenir. C’est intéressant parce que je trouve que ce sont deux thématiques très actuelles en tout cas dans nos sociétés occidentales, la vitesse et la quantité. De fait, les fabricants de matériel, mais aussi vraisemblablement les développeurs, jouent le jeu de cette recherche de toujours plus, toujours plus vite, plus de choses, plus d’informations, etc., ce qui fait que les gens aussi vont là-dedans, pas simplement pour des effets de mode mais aussi parce qu’on habitue toutes les personnes à vouloir que « eh bien oui, j’appuie sur un bouton il faut que ça réponde tout de suite et je veux pouvoir transporter des tas de données et avoir un débit très rapide ».
En fait, dans la pratique, on voit bien que ce n’est pas obligatoirement ça qui est vraiment nécessaire. C’est-à-dire que la majorité des « actes quotidiens », entre guillemets, si je peux m’exprimer comme ça, ne requiert pas cette vitesse-là et ne requiert pas autant de choses. Donc cette vitesse est technique. Elle est technique, elle est voulue ou requise, on va dire ça comme ça, gentiment, par la technique, parce que la gourmandise est là. Les vidéos sont de plus en plus lourdes, les pages web sont costauds. On l’a vu dans la période récente, pour communiquer tout le monde voulait avoir une caméra, un bon micro, etc., mais tout ça requiert des choses qui font que vitesse et quantité sont requises partout.
Du coup, les ordinateurs ne sont plus suffisants. Or, quand nous on regarde ce qui est réellement nécessaire, on va voir tout à l’heure que ce n’est pas exactement tout ça.

Donc ce matériel nous arrive. On l’a nettoyé, on l’a remonté. La question suivante va être : quel est le système d’exploitation le plus adapté qu’on va pouvoir y installer ?
Dans un premier temps, au tout début d’Antanak en 2015, quand on a ouvert l’association, on s’était dit que l’idéal c’était de pouvoir immédiatement à la fois l’adapter bien sûr à la machine, ses propres capacités, mais aussi l’adapter à la personne qui serait l’utilisatrice finale. Mais ça c’était un vœu pieux, parce que dans la vraie vie on ne sait pas tout de suite, au moment où un ordinateur nous arrive, qui sera l’utilisateur ou l’utilisatrice finale, donc ça ne marche pas. En plus il fallait qu’on ait un peu de temps d’avance, donc qu’on soit capable de préparer à l’avance du matériel. Donc qu’est-ce qu’on s’est dit ? On s’est dit très bien, on va le faire d’abord en fonction du CPU, les trois axes que je viens de dire tout à l’heure.

Frédéric Couchet : Le CPU c’est le processeur.

Isabelle Carrère : Le processeur, son âge, sa génération, le nombre de cœurs, etc., et puis de la RAM. On rajoute toujours de la RAM, mais les ordinateurs ont une capacité limitée, définie.

Frédéric Couchet : Capacité maximale d’acceptation de la RAM.

Isabelle Carrère : Du coup, il y a de très vieux postes qui ne peuvent accepter que deux gigas, par exemple. Ceux-là ce n’est pas la peine d’essayer de leur en mettre 32, de toute façon ça ne marchera pas ! En même temps, il y a des gens, François, quelqu’un d’Antanak qui viendra sans doute dans une prochaine chronique, qui est très content quand il arrive à faire fonctionner des postes avec 512 mégas de RAM. C’est un sujet qui est compliqué parce qu’on voit bien que notamment pour Internet ça ne marche pas. Ça marche pour beaucoup de choses, on peut faire du traitement de texte avec très peu de RAM. Dès qu’on veut aller sur Internet c’est mort, effectivement, parce que les développements sont… Je ne veux pas y revenir, mais ce sont bien nos questions de performance de tout à l’heure.
En tout cas quand on décide qu’on va installer une distribution GNU/Linux et là ça va être une des distributions non commerciales, communautaires et grand public qu’on va choisir. Donc on va mettre du Debian, de l’Ubuntu, du Xubuntu, du Mint, de l’antiX, du CentOS, du Bodhi Linux, j’en passe et des meilleures. Pourquoi ? Nous on n’est vraiment pas pour le monopole d’une distribution, on serait très malheureux et très tristes s’il n’y avait plus qu’un grand qui prendrait toute la place du, entre guillemets, « marché du Libre » et on est friands de ce que nous-mêmes et les gens qui viennent à Antanak puissent voir plusieurs choses différentes. Et ce n’est pas simplement un vœu pieux, c’est vraiment une chose qui est super importante pour nous et c’est pour la même raison que nous n’avons pas, contrairement à d’autres associations, choisi de faire notre propre distribution. Outre le fait qu’on n’est pas tous des informaticiens, moi la première, on aurait pu se dire ça, on va en aménager une, repartir de quelque chose. On n’a pas voulu ça, on n’est pas la-dessus. Ce qu’on veut c’est montrer l’ouverture, montrer les capacités parce que toutes ces communautés font un boulot incroyable, génial, et je pense que ça nous intéresse plus de mettre ça en valeur, de reconnaître ça et d’en parler plutôt que de dire « non, voilà, il y a une distribution qui est la bonne c’est, deux points ouvrez les guillemets ». Non, on n’est pas là-dessus !
De ce fait on arrive à trouver la meilleure ou la bonne distribution pour le poste en question en fonction des critères machine dont j’ai parlé tout à l’heure. Parfois on a quelques soucis parce que, on ne sait pas trop pourquoi, il y a des cartes filles, par exemple la carte réseau Wifi qui, avec telle distribution, ne va marcher. Parfois on n’y arrive pas, du coup on est obligé de changer de braquet, on dit ce n’est pas celle-là que je vais utiliser c’est plutôt telle autre. On change. Sinon en général on s’y tient une fois qu’on a décidé ça.
Par contre, ce qu’on a fait de manière à ne pas être tout le temps juste avec une clef USB avec une image ISO qu’on va installer, c’est un processus un petit peu long, on a mis en place quelque chose, c’est Florian, un autre membre d’Antanak qui a mis ça en place, on se sert de Clonezilla. En fait, on fait sur des petits disques durs de 40 gigas, nos propres bibliothèques d’images à partir de ces distributions que j’ai citées tout à l’heure. À chaque mise à jour on remet notre bibliothèque d’images à jour et on a les dernières versions mais avec nos « propres paramètres » entre guillemets, c’est-à-dire qu’on met les paramètres dans Firefox, par exemple on dit qu’on veut que le bouton fermeture soit là. On met deux/trois choses telles on a envie et telles qu’on a constaté que pour les gens c’était plus facile d’accéder à ça.
On dépose tout ça sur notre serveur et ensuite, avec Clonezilla, on va aller chercher la distribution qui va bien. Avec Clonezilla on fait un clone sur le disque dur de l’appareil qu’on est en train de reconditionner pour la personne. Du coup on accélère beaucoup notre processus, on est très fiers de ça parce que c’est le seul endroit où on est un peu industriel et moins artisanal et ça marche très bien. Après, avec Gparted en graphique ou Parted en terminal, il n’y a plus qu’à retirer, en fait, les partitions pour que l’ensemble du disque dur soit utilisable par la personne à qui on va donner l’ordinateur, parce que sinon on n’aurait, à chaque fois, que les 40 gigas.
Voilà. Et on a gardé malgré tout quelques petites images en 32 bits pour les anciens postes. En tout cas, on est vraiment sur cette ligne de pouvoir faire des choses variées.
On voit bien que 90 % des usages des gens qui viennent chercher un ordinateur à Antanak, ça va être quoi ? C’est Internet et le traitement de texte. Il y a 10 % de gens qui vont venir et avoir besoin d’autre chose pour faire de la vidéo, du son, des trucs autres, etc. On a trouvé que finalement c’était la bonne façon que nous choisissions par rapport à la machine, cette adaptation-là de la bonne distribution GNU/Linux qui ensuite va être utilisée par les gens et ce, sans aucun souci.
Si j’ai 30 secondes encore, je vais juste raconter une petite histoire de fin, c’est assez amusant. Quand on donne des ordinateurs on explique aux gens tout ça, comment ça marche, ce qu’ils vont en faire après, ce à quoi ils s’engagent pour le bon entretien, blablabla. Pendant le confinement on a donné énormément d’ordinateurs. Un jour j’étais en train d’expliquer à un jeune comment fonctionnait l’ordinateur qu’on allait lui donner. Il m’écoute très sagement, très gentiment, du moins le pensais-je, il ne posait aucune question. J’ai dit « c’est bon, vous n’avez aucune question ? » Et sa question c’était : « Maintenant, pour installer Windows, je fais comment ? »…

Frédéric Couchet : Il y encore du boulot !

Isabelle Carrère : Il y encore du boulot, voilà c'est ce que je voulais dire !

Frédéric Couchet : Ça donnera l’occasion d’avoir d’autres chroniques.
C’était la première chronique d’Antanak, antanak.com pour le site web, et sinon 18 rue Bernard Dimey dans le 18e à Paris, juste à côté du studio. Merci Isabelle. C’était Isabelle Carrère qu’on retrouvera tous les mois.
Je précise aussi que Isabelle anime l’émission Un coin quelque part sur radio Cause Commune sur l’habitat, donc n’hésitez pas à l’écouter.

Isabelle Carrère : Merci beaucoup.

Frédéric Couchet : Merci Isabelle.
On a approche vraiment de la fin de l’émission. On va faire quelques annonces si j’ai le temps.

[Virgule musicale]

Annonces

Frédéric Couchet : Juste une petite annonce. N’hésitez pas à nous laisser un message sur le répondeur de la radio pour réagir à l’un des sujets de l’émission, nous poser une question ou simplement nous faire un retour. Le numéro du répondeur : 09 72 51 55 46, je répète 09 72 51 55 46.

Notre émission se termine. Je remercie les personnes qui ont participé à l’émission du jour : Isabella Vanni, Julie Bideux, Isabelle Carrère, également Catherine Dufour, Caroline Corbal et Katia Aresti, c’était le sujet enregistré il y a un an.
Aux manettes de la régie mon collègue Étienne Gonnu.
Merci également à Antoine, bénévole à l’April, Olivier Grieco, le directeur d’antenne de la radio, pour la post-production des podcasts.
Merci également à Quentin Gibeaux, bénévole à l’April, qui fait le découpage du podcast complet en sujets individuels.

Vous retrouverez sur causecommune.fm et sur april.org une page avec toutes les références utiles et les moyens de nous contacter. N’hésitez pas à nous faire des retours.

Nous vous remercions d’avoir écouté l’émission. N’hésitez pas à faire connaître l’émission et également la radio Cause Commune, la voix des possibles, le plus possible autour de vous.

La prochaine émission aura lieu en direct mardi 15 septembre 2020 à 15 heures 30. Notre sujet principal sera la réponse à la question que vous vous posez tous depuis 1970 : c’est quoi l’informatique ?

Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 15 septembre et d’ici là, portez-vous bien.

Générique de fin d'émission : Wesh Tone par Realaze.

Le robot, mon ami ? Talk Sapiens - La Tribune #9

APRIL - dim, 09/13/2020 - 11:31


Titre : Le robot, mon ami ? Talk Sapiens - La Tribune #9
Intervenant·e·s : Laurence Devillers - Ysens de France - Serge Tisseron - Olivier Babeau, voix off - Philippe Mabille
Lieu : Talk Sapiens- La Tribune #9
Date : juillet 2018
Durée : 49 min 40
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Ingeniería mecatrónica, ¿Qué es la Robótica? - Licence Creative Commons CC By 4.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Santé, industrie, défense, marketing, automobile : les applications liées à la robotique sont légion et se développent à grande vitesse. Cette omniprésence, souvent associée à un anthropomorphisme délibéré, ne risque-t-elle pas de brouiller la frontière entre humains et robots ?
Cette question était au cœur du 9ème Talk Sapiens-La Tribune

Transcription

Olivier Babeau, voix off : Bonjour. Je suis Olivier Babeau, le président de l’Institut Sapiens, la première think tank française qui replace l’humain au cœur du numérique. Le Talk Sapiens c’est une fois par mois, une discussion approfondie entre experts pour mieux comprendre les grands enjeux de ce siècle qui commence.

Philippe Mabille : Bonjour à toutes et à tous et bienvenue pour ce nouveau podcast organisé par l’Institut Sapiens et le journal La Tribune que je dirige. Je suis ravi de vous retrouver après une longue absence liée au confinement. Nous ne sommes non pas encore confinés, je suis à mon bureau, mais nous essayons de déconfiner nos esprits avant de démarrer dans l’été pour parler d’un sujet qui aurait pu nous rendre bien des services pendant le confinement, d’ailleurs pour certains ça a peut-être été le cas même si on a vu que la pandémie covid a montré que l’humain restait quand même essentiel ; que ce soit dans la santé ou pour la distribution alimentaire, heureusement qu’il y a encore des humains qui sont là ! Peut-être que pour la prochaine épidémie ou la prochaine vague, si jamais elle a lieu, se posera la question de l’usage des robots pour nous remplacer et prendre moins de risques. C’est vrai que ça pourrait être bien pratique face aux virus d’avoir des robots dans les hôpitaux ou des robots dans les supermarchés.
Pour parler justement de l’avenir du robot, à supposer que la question de savoir si le robot peut-être ou pas notre ami et où est-ce qu’on en est de cette technologie, on a trois invités très prestigieux et je suis ravi de les avoir avec nous pour ces 45 minutes de débat. Nous avons Laurence Devillers. Bonjour Laurence.

Laurence Devillers : Bonjour.

Philippe Mabille : Vous êtes professeure à Sorbonne Université en informatique appliquée aux sciences humaines et sociales. Vous dirigez la chaire de recherche en intelligence artificielle HUMAAINE en apprentissage machine, détection des émotions et interaction homme-machine. On va beaucoup parler de ces sujets-là. Vous avez publié en mars dernier, avant le confinement, Les robots émotionnels aux Éditions de l’Observatoire.
Avec nous également Serge Tisseron, vous êtes psychiatre. Bonjour Serge.

Serge Tisseron : Bonjour.

Philippe Mabille : Psychiatre et psychanalyste, membre du Conseil scientifique du CRPMS [Centre de Recherche Psychanalyse Médecine et Société], vous nous direz ce que c’est, à l’Université de Paris, et membre de l’Académie des technologies. Vous êtes à l’origine de la fameuse règle « 3, 6, 9, 12 » qui donne des repères sur l’utilisation des écrans en fonction de l’âge de l’enfant. C’est vrai qu’aujourd’hui la question de l’intrusion des écrans dans nos vies, peut-être demain des robots, posera des tas de questions psychologiques nouvelles, on va en parler. Vous avez aussi fondé l’Institut pour l’Étude des Relations Homme-Robots (IERHR) en 2013 [Note de l'orateur]. Vous venez de publier L'Emprise insidieuse des machines parlantes, plus jamais seul aux Éditions Les Liens qui libèrent.
Et enfin avec nous, directrice de la prospective à l’Institut Sapiens, Ysens de France. Bonjour Ysens.

Ysens de France : Bonjour.

Philippe Mabille : Vous êtes docteure en droit international public, vous êtes spécialisée en robotique militaire terrestre notamment, vous avez publié une thèse sur le sujet, et vous êtes également directrice adjointe de l’Observatoire éthique et intelligence artificielle à l'Institut Sapiens avec qui nous sommes partenaires.
Après cette présentation un peu longue qui permet de savoir qui parle et d’où il ou elle parle, nous allons commencer avec Laurence Devillers par nous interroger sur la définition, simplement : c’est quoi, dans le monde d’aujourd’hui, quand on parle de robot et comment on fait la différence entre le robot et l’intelligence artificielle alors qu’il y a une interaction de ces technologies de plus en plus importante dans nos vies ?

Laurence Devillers : Merci. Je pense qu’il est essentiel déjà de définir. Donc en trois points.
Il faut différencier la robotique de ce qui est automate, c’est-à-dire que les premiers robots qu’on a vu arriver dans les usines, qui sont les plus connus, ce sont des systèmes qui enchaînent des actions qui sont déterminées, l’ordre est déterminé il n’y a pas de choix fait par la machine.
Quand on parle de robotique on parle d’un outil qui est capable de percevoir dans son environnement, de raisonner sur ce qu’il a perçu, avec des connaissances qu’il peut avoir, de l’ontologie, c’est-à-dire une représentation de notre monde, et puis il est capable de réagir. Il peut être doué de langage et doué d’action dans notre monde en trois dimensions.
Je le distingue du bot qui est peut-être sur mon téléphone ou sur un ordinateur ; je le distingue du chatbot qui est un bot capable de converser ou, en tout cas, d’interaction verbale, parce qu’il ne converse pas. On parle aussi de ces enceintes vocales qui sont des objets, effectivement, mais qui sont des haut-parleurs avec un micro.
Pour revenir à l’IA, l’intelligence artificielle, qui est un oxymore, l’intelligence c’est humain et artificiel c’est artifice, c’est machine, eh bien ces objets que ce soit le robot, l’enceinte vocale, Siri sur mon téléphone, utilisent des modules d’intelligence artificielle pour faire de l’analyse du signal, de la reconnaissance de la parole, de la compréhension, voire de la reconnaissance des émotions, qui est mon domaine, pour générer des réponses, faire des actions. Donc il y a une foultitude de différents modules d’intelligence artificielle et un système qui essaie d’utiliser ces différents modules pour faire cette interaction avec les machines.
Je finirai juste en disant qu'il est essentiel aujourd’hui de mieux comprendre comment elles sont faites et quels sont les usages qu’on peut avoir avec, en regardant également les points de vue éthiques. On verra en discutant dans cette session qu’on n’a pas de loi qui réglemente, qui vérifie, qui audite ces systèmes à l’heure actuelle et qu’il n’est pas évident d’en faire non plus pour tout et qu’il sera aussi nécessaire de faire des chartes éthiques de bonne pratique pour encadrer ces objets.
Dernier point. J’appartiens aussi à un comité d’éthique puisqu’on en a parlé avant, j’appartiens au Comité National Pilote d'Éthique du Numérique, qui est proche du CCNE [Comité consultatif national d'éthique] qu’on connaît bien, qu’on a vu beaucoup pendant la pandémie avec le professeur Delfraissy qui est la tête de ce CCNE.

Philippe Mabille : Merci beaucoup Laurence.
Avant de revenir sur les usages des robots et de leurs interactions avec nous humains, j’en parlais un tout petit peu avant dans mon introduction, je vais maintenant passer la parole à Serge Tisseron peut-être pour évoquer cette intrusion, cette arrivée des machines dans nos vies. On parle de machines parlantes, ça va de Siri qui converse sur nos ordiphones, pour ne citer qu’eux, en tout cas il y a des robots conversationnels aujourd’hui dans nos smartphones. Il y a également, aujourd’hui, de plus en plus de robotique ou d’intelligence artificielle, c'est-à-dire des robots qui ont des yeux avec des caméras, des caméras de surveillance. Donc la voix, les yeux, peut-être demain les bras, on a tous le souvenir de Boston Dynamics qui, avec son chien dont j’ai oublié le nom, son chien robotique qui réalise des performances de plus en plus spectaculaires et qui pose vraiment la question de où s’arrête la frontière ? Justement, j’allais vous poser cette même question sur la définition de la robotique aujourd’hui et où s’arrête la frontière.

Serge Tisseron : Merci. Tout d’abord Laurence a très bien parlé de l’intelligence artificielle et du robot, la différence entre les deux. Je voudrais ajouter un troisième élément qui me paraît vraiment essentiel, ce sont les données, les fameuses big data. Il ne faut pas oublier que l’intelligence artificielle est très dépendante des données qu’on y entre. L’intelligence artificielle dysfonctionne non pas parce que l’algorithme est mauvais, mais parce que les données sont insuffisantes ou bien biaisées. Il faut bien comprendre que quand l’intelligence artificielle va faire fonctionner le robot, le robot va être indirectement dépendant aussi de ces données.
C’est pour ça que c’est très important d’établir, de bien comprendre cette chaîne qui relie les données, l’intelligence artificielle puis le robot. Le robot est en quelque sorte le terminal qui est présent dans une notre environnement, qui a une présence physique, mais il y a toute une chaîne en amont, que nous ne voyons pas, dont il faut vraiment réaliser l’importance.
Sinon, par rapport à votre question, oui, aujourd’hui on s’aperçoit que finalement l’être humain est extrêmement prêt à accorder des compétences presque humaines à une machine. Si vous voulez on croyait que l’être humain était un être de raison, depuis le 18e/19e siècles on en était persuadés. On s’aperçoit que ce n’est pas si acquis que ça. En effet, lorsqu’une machine est capable de nous regarder, lorsqu’une machine est capable de nous parler comme un humain, beaucoup d’entre nous, finalement, se laissent gagner par l’illusion que cette machine, pas humaine, [ben sûr, nous ne sommes pas si bêtes pour le croire, Note de l'orateur], mais que cette machine pourrait avoir des compétences très supérieures à celles qu’elle nous montre [dans l'instant, Note de l'orateur].
Quand je parle avec humain pour lui demander Où se trouve une rue, pour lui demander le prix du pain, je sais bien que cet humain a beaucoup plus de compétences que celles qu’il me manifeste. En effet, lorsqu’une machine est capable de regarder, même si ses yeux sont manifestement des yeux mécaniques, il a été montré que l’humain qui interagit avec elle, c’est Hiroshi Ishiguro1 qui a montré cela, l’humain qui interagit avec la machine la regarde dans les yeux, comme s'il attendait quelque chose de ce regard. Et dès qu’on introduit la voix dans une machine, on le voit aujourd’hui avec les enceintes connectées, beaucoup de gens sont prêts à se laisser gagner par l’illusion que la machine aurait des compétences plus grandes que ce qu’elle n’en a. Les gens font des expérimentations, essayent de coincer un peu la machine avec des questions tordues, puis ils s‘aperçoivent qu’elle n’est pas si maligne que ça et qu’est-ce qu’ils se disent ? Ils se disent vivement la prochaine pour qu’elle soit un peu plus intelligence.

L’idée, comme je le dis toujours, dans le développement de l’intelligence artificielle, dans la relation de l’homme à l’intelligence artificielle, le maillon faible c’est l’homme. Nous sommes prêts à accorder à ces machines des compétences bien plus grandes que celles qu’elles ont en réalité. Ça veut dire qu’il faut constamment remettre les choses au clair sur les compétences réelles de ces machines mais aussi se préoccuper des personnes particulièrement fragiles, traditionnellement les enfants, les personnes âgées, dans les confusions qui pourraient se créer chez elles quand elles utilisent ces machines.

Philippe Mabille : Absolument. Jusqu’au risque de la perte de contrôle, on va peut-être en parler tout de suite avec Ysens de France puisqu’elle a travaillé sur la robotique militaire. Un des rêves de l’humanité c’est de pouvoir effectivement se faire assister de robots, mais on le voit bien dans le film Terminator dont on entend beaucoup parler à propos de la robotique militaire, jusqu’à quel point l’homme garde-t-il le contrôle de la machine quand il l’automatise ? Cette question peut se poser de façon peut-être pas si facile, dérisoire que ça dans la vie quotidienne, mais dans les questions militaires et l’armée évidemment ça serait un danger considérable. Où est-ce qu’on en est, déjà, vous qui connaissez ce sujet, en matière de robotique militaire ? On va basculer très vite dans notre discussion sur ces questions-là, est-ce que des règles éthiques peuvent empêcher l’humain qui est effectivement le maillon faible, et qui pourrait devenir tellement faible qu’il se ferait dépasser ?
Ysens.

Ysens de France : Quand on s’intéresse à la robotique militaire terrestre et plus spécifiquement quand on s’intéresse à ces questions à travers le prisme juridique, la première question qu’on se pose c’est déjà qu’est-ce qu’un robot ?, et, à travers mes analyses et à travers recherches, premier constat, le robot n’existe pas. Le robot n’existe pas parce que dans les armées, mais on l’a vu également à la Commission européenne, je reviendrai dessus après, on considère que le robot est une machine qui est capable de décider. Aujourd’hui ça n’existe pas. Donc comme ça n’existe pas il ne peut pas y avoir d’identification juridique qui lui soit propre. C’est très important, en fait, de prendre le temps de bien définir et de qualifier ce que c’est qu’un robot, parce que ce qu’on voit par exemple dans la robotique militaire terrestre, il y a eu des conversations qui ont été engagées au niveau des États, au sein de l’ONU, et quand ils ont commencé à introduire ces conversations, forcément ils ont parlé de robots. Qu’est-ce qu’on fait des robots militaires ? Qu’est-ce qu’on fait des killers robots ? Qu’est-ce qu’on fait de Terminator ? Et très vite ils se sont dit on va arrêter d’utiliser ce terme-là parce que ça n’existe pas, qu’il y a trop de projections et qu’on a l’impression qu’on va remplacer les militaires dans les conflits armés. C’est pour ça que très vite ils se sont dit on va utiliser un terme plus approprié qui est le « système d’armes »2, on parle de système d'armes létales autonome quand il est en pleine capacité de décider de laisser vivre ou de tuer. Cette qualification de « système d’armes » est importante parce que le signal est fort en fait dans les armées. Le robot restera un objet. Dans ce cadre-là, une fois qu’ils ont défini ça comme un objet, donc un équipement militaire, fait qu’ils parlent moins de confiance que finalement de vigilance, de prudence, de capacités, de capacités de contrôle, de capacités de maîtrise. Ce qu’on a vu aussi lors de ces conversations, c’est qu’au début ils étaient très focus sur la technologie, quelles étaient les capacités de la technologie et très vite, au bout deux/trois ans de conversations, ils se sont dit « non, en fait, on va s’intéresser surtout aux capacités de l’homme à maîtriser et à contrôler cette technologie ».
Ce qui est intéressant, pareil, avec l’aspect juridique, c’est qu’on peut lui donner une seule qualification, c’est une technologie qu’on appelle duale, c’est-à-dire que c’est une technologie qui a une application à la fois militaire et à la fois civile : vous avez un robot chez vous, vous l’armez, ça devient un robot armé.
Ce qui m’a pas inquiétée, mais j’étais assez dubitative justement en travaillant sur ces questions, c’est que j’ai vu deux choses, deux dissonances. Robot militaire on a affirmé son statut d’objet donc le pouvoir de l’être humain de maîtriser, de toujours contrôler son outil et c’est très important dans les conflits armés parce que ça permet de savoir quel est le rôle et la place de chacun lors d’une mission – ce qui compte c’est la performance de la mission – et j’ai vu que dans la robotique civile il y avait une espèce de glissement. On a voulu absolument personnifier le robot, on a essayé de lui donner une personnalité juridique du robot. Et ce qui est très important c’est qu’au nom de la sécurité juridique vous ne pouvez pas, pour un même objet, qualifier d’un côté cet objet-là d’objet et de l’autre dire en fait non, ça va être une personne. C’est impossible en droit parce que ça voudrait dire que d’un côté l’homme reste responsable coûte que coûte et de l’autre on glisserait vers des mécanismes juridiques où on finirait par donner, en fait, de la responsabilité aux robots. Au sein des conflits armés, dire que c’est un objet c’est accorder une place extrêmement importante à l’humain dans les conflits armés et ça c’est déterminant pour les combats, pour la performance de la mission. Voilà ce que j’ai juridiquement.

Philippe Mabille : Merci.
Serge Tisseron, on est au cœur du débat éthique et objet ou pas, « objets inanimés avez-vous une âme ? », comme disait le poète. On voit finalement plutôt le robot comme un auxiliaire : ça peut être un auxiliaire dans la santé, je l’ai dit, ça peut être effectivement un auxiliaire militaire, ça peut être un auxiliaire dans l’industrie, énormément aujourd’hui de travailleurs de l’industrie sont confrontés à la robotique, plutôt d’ailleurs pour les libérer d’un certain nombre de tâches. J’aimerais demander au psychiatre, au psychanalyste que vous êtes, qu’est-ce que ça change dans le cerveau humain de travailler avec cet objet, ce robot ? Est-ce qu’on se sent plus puissant ou est-ce qu’on se sent affaibli, diminué ?

Serge Tisseron : Pour répondre à la fameuse phrase.

Philippe Mabille : Les deux mon général. C’est ça ?

Serge Tisseron : Non, attendez. « Objets inanimés avez-vous donc une âme ? », oui, celle que nous leur donnons, celle dont nous les créditons.

Philippe Mabille : Absolument.

Serge Tisseron : Par rapport à la robotique militaire, c’est tout à fait vrai pour les militaires, le robot est un objet, un outil. Quand les militaires envisagent l’augmentation du soldat, on parle beaucoup d’augmentation du soldat dans les années à venir, ils parlent de deux choses : Il y a des augmentations exogènes avec des outils dont le robot fait partie et puis il y a des augmentations endogènes [avec différentes substances chimiques ou prothèses, Note de l'orateur] qui modifient la résistence la physiologie du combattant. C’est dans cette logique-là, vous voyez, qu’est pensé aujourd’hui le robot militaire [comme une augmentation exogène du combattant, Note de l'orateur].
Pour répondre à votre question, le problème des robots, une fois dit que ce sont des objets, ça va être comment l’homme va les considérer. Il y a quelques années l’état-major américain s’est aperçu que des soldats en charge de robots démineurs voyaient leur robot très différemment d’un simple objet.

Laurence Devillers : Ce n’étaient pas des robots. Ce sont des objets téléopérés.

Serge Tisseron : Voilà, d’accord !

Philippe Mabille : C’est dans la définition.

Serge Tisseron : C’est ce nom de « robot » qui apparaît partout dans la littérature à ce sujet.

Laurence Devillers : Je suis désolée de la métaphore.

Serge Tisseron : Oui, on va dire « robots » entre guillemets et encore même pas des robots, ils ne sont pas dotés de la voix, ils n’ont pas des yeux, ils se présentent un peu comme une caisse montée sur chenille, avec un bras articulé et une caméra. Donc on va dire que ce ne sont pas des robots, mais on va dire que ce sont des objets téléopérés. Ces objets téléopérés, tout téléopérés qu’ils soient par une intervention humaine, l’état-major américain s’est aperçu que certains soldats se déprimaient quand leur machine était endommagée, que certains demandaient que les honneurs de la guerre soient rendus à leur machine quand elle avait été totalement détruite et, plus intéressant encore, certains demandaient que cette machine même très endommagée soit réparée quel qu’en soit le prix de manière à ce que ces personnes puissent récupérer la même machine avec le même numéro de série, une machine à laquelle ils s’étaient un peu émotionnellement attachés. Donc vous voyez qu’on rencontre le problème de l’attachement à la machine, [un attachement bien plus important que celui qu’on peut développer aujourd’hui avec un objet, Note de l'orateur].

Philippe Mabille : Est-ce que c’est différent de l’attachement à une voiture qu’on possède depuis des années ?

Serge Tisseron : La différence ce sera lorsqu’une voiture commencera à vous parler, mais aujourd’hui elle ne vous parle pas.

Philippe Mabille : C’est vrai qu’elle devient robotisée.

Laurence Devillers : Une voiture c’est un robot.

Serge Tisseron : Ce qui fait la différence quand même c’est que ces machines vont très bientôt être capables de nous interpeller, c’est ça qui fait la différence. Quand vous allez vers une machine, par exemple vous allez vers un distributeur de billets dans une gare SNCF, si vous lui parlez déjà ça simplifie beaucoup vos démarches avec la machine, pour beaucoup de gens ce sera une libération de pouvoir parler à ces machines plutôt que de tapoter sur un clavier qui souvent ne marche pas. En revanche, le changement le plus important n’est pas là. Le jour où vous avez dans votre environnement une machine qui vous interpelle comme certains robots placés d’ores et déjà dans des hôpitaux, qui peuvent dire « bonjour Monsieur machin, bonjour Madame truc, comment allez-vous ? est-ce que vous avez bien dormi ? », à partir de ce moment-là il est bien évident que les compétences dont on va créditer le robot, la machine, vont être beaucoup plus importantes.
Donc si vous voulez, la question qu’on se pose tout le temps à l'Étude des Relations Homme- Robots3, fondé en 2013, c’est cette question-là : de quelle façon des machines qui ne sont pas conçues avec l’idée de remplacer l’humain de quelque manière que ce soit, vont quand même, pour certains usagers, êtres amenées à remplacer des partenaires humains dans l’imagination qu’ils en ont ?

Philippe Mabille : Laurence, la controverse est lancée, allez-y !

Laurence Devillers : D‘abord tout ce qui est anxiogène passionne tout le monde en ce moment. À chaque fois qu’on a des aspects très négatifs ou très caricaturaux autour de ces machines on envole les gens qui oublient de revenir à l’état de l’art. L’état de l’art voulant dire : qu’est-ce que sont capables vraiment de faire ces machines ? À l’heure actuelle pas grand-chose. Elles sont d’une autonomie très limitée. Lorsqu'on parle d’agents conversationnels ils ne conversent pas, ils ne comprennent rien à ce qu’on dit, ils n’ont pas d’émotion et ils ne font qu’imiter des choses qu’on leur a données. L’intelligence vient de l’humain qui a su faire ces machines et en aucune manière la machine ne va devenir créative et ne va se doter de fonctions qu’un ingénieur n’aurait pas prévu de lui donner. À la limite elle pourra capturer quelques données en plus, peut-être qu’elle va d’ailleurs faire que son système sera moins performant parce qu’elle n’aura pas assez de connaissances pour juger des qualités des données qu’elle va réutiliser.
Donc il est urgent dans la société qu’on fasse expérimenter ces objets pour qu’on oublie d’avoir peur à chaque fois qu’on parle de ces sujets.
Maintenant je vais à l’inverse. À l’inverse, on cherche à faire dans certains domaines – la robotique sexuelle en est un – des choses qui nous ressemblent extrêmement fortement, des clones, des Geminoid, des jumeaux de l’humain, avec la même apparence, vides. À l’intérieur on n’a évidemment pas de viscères, on n’a pas de ressenti, on n’a pas de chair. Comme, de toute façon, on ne sait pas encore vraiment modéliser la cellule ni ce que c’est que la pensée humaine, nous sommes dans un balbutiement des choses. On imite en surface, on fait des avions qui volent ce n’est pas pour ça que ce sont des oiseaux. Là on fait des systèmes qui nous ressemblent, qui ont certaines de nos fonctionnalités, mais sûrement pas notre capacité d’humains à ressentir, à créer, à imaginer et à être en solidarité avec les autres, il n’y a rien de tout ça !, même si je connais des chercheurs qui essaient de faire de l’homéostasie dans un robot, c’est-à-dire modéliser une certaine douleur, un certain plaisir, pour que le robot ait des intentions.
Dans le monde de la recherche on manie également fortement la métaphore.
Si je prends maintenant les usagers, les non-experts qui sont devant ces machines, eh bien pour avoir fait beaucoup d’interactions avec des personnes âgées dans des Ehpad ou dans des systèmes avec des gens qui avaient un certain handicap, des jeunes et des moins jeunes, il n’y a pas beaucoup de confusion. Il n’y a pas beaucoup de confusion avec l’humanité. Il y a des projections voulues. Quand l’enfant est petit il adore son nounours ou quand le gars adore sa voiture, il fantasme aussi sur la relation qu’il a avec ces objets. Or ces objets maintenant sont plus sophistiqués, on ne peut plus tellement dire que ce sont des outils, ce sont des systèmes qui réagissent fortement, qui peuvent nous parler et là il peut y avoir manipulation. Mon objectif de recherche à l’heure actuelle, dans la chaire dont vous avez parlé tout à l’heure, c’est justement de travailler sur ces objets conversationnels, c’est l’objet de mes recherches, la parole dans l’interaction, le pouvoir de la parole et le pouvoir de manipulation de la parole.
À travers ça, j’aimerais vous faire prendre conscience de la chose suivante, ce sont des économistes qui l’ont dit, non pas des psychologues ou des psychiatres : nous sommes régis, caricaturalement parce que c’est à mon avis un champ de recherche qui est totalement ouvert, sur des réactions, des prises de décision de l’humain qui sont soit sur système 1, extrêmement rapides par intuition, et on fait beaucoup de choses par intuition, et par un système 2 qui lui raisonne autour de toute la circonstance, etc.
Il faut qu’on fasse mieux comprendre que ces objets manipulent sur ces deux systèmes et nous obligent à aller très vite. L’attention des machines, le fait qu’il faut réagir très vite, ça c’est de l’ordre du système 1, l’intuition : un objet vous dit quelque chose, tac, on va tout de suite répondre sans analyser finalement si que c’est fake, si ce qu’il nous a dit avait une réalité, etc. Ça ce sont des vrais sujets. Ce sont des sujets d’éthique du numérique qui sont apparentés à des désirs commerciaux, à des désirs des géants, des GAFA [Google, Amazon, Facebook, Apple], à des désirs de gens dont on ne lève pas le capot sur les objectifs ni sur ce qu’ils font des données ni sur quels sont les désirs de manipulation.
Si demain je parle à mon Google Home je lui dis « je voudrais une pizza », il va m’envoyer une pizza d’un commerçant. La manipulation est là, à qui il demande ?, à quelqu’un qui a peut-être donné de l’argent pour faire cela.
Il faut démystifier ce côté un peu anthropomorphisme qu’on a dans les machines et ne pas cultiver cette anxiété parce que, finalement, je n’ai pas tellement trouvé, en fait, de personnes qui se faisaient avoir par ces systèmes. À l’heure actuelle ils ne sont pas assez intelligents et on peut apprendre à les débusquer : je peux converser avec un système et l’amener à dire des choses qu’une machine ferait parce que c’est incongru, parce que c’est n’importe quoi.
Si on avait cette éducation de pouvoir démystifier, de savoir comment on interagit avec ces systèmes sans savoir coder, il ne s’agit pas que tout le monde sache coder, il s’agit au contraire qu’on ait des systèmes de défense par compréhension des objets sur lesquels on travaille et, de l’autre côté, pousser les industriels à être en capacité de faire des machines plus transparentes, qu’ils expliquent un peu plus leurs capacités et qu’on sache l’écosystème : où vont les données ? À qui ça sert ? Qui gagne de l’argent avec cet objet ?

Philippe Mabille : Laurence, ce que vous racontez là est tout à fait intéressant, on voit ça dans des films de science-fiction, c’est-à-dire que Hollywood, finalement, nous a permis de nous préparer à ce monde-là. Prenez Blade Runner, c’est quoi ? C’est on chasse des robots en essayant de deviner et ils sont tellement bien faits qu’il faut leur poser une dizaine, une vingtaine de questions pour essayer de déceler la part de machine qui reste en eux. Donc on voit bien, et je reviens sur ce que je disais Ysens, que la question juridique est en train de rejoindre la question éthique. C’est-à-dire que ce Blade Runner nous dit de l’avenir qui, je l’espère, n’aura certainement pas lieu, mais on ne sait pas parce que si jamais un jour on fabriquait, justement, des robots à notre image, on pourrait être confronté à ce type de question. Donc est-ce que le débat n’est pas d’abord juridique ? Est-ce qu’on peut se poser la question d’un droit des robots ?

Laurence Devillers : Non !

Serge Tisseron : Je voudrais juste dire un petit mot parce que Laurence Devillers pourrait laisser imaginer que j’ai des peurs. J’essaie d’anticiper les risques, d’ailleurs elle me connaît bien pour savoir que ce n’est pas la peur.

Laurence Devillers : Ce n’est pas vous qui avez peur, c’est le langage qui fait peur.

Serge Tisseron : Le pouvoir, le poids de manipulation de la parole, c’est exactement le sujet que je traite dans mon dernier livre L’emprise insidieuse des machines parlantes. Plus jamais seul.

Laurence Devillers : Et du mien aussi.

Serge Tisseron : Laurence parlait des deux systèmes, décision lente, décision rapide. L’être humain est doté de deux autres systèmes qui lui permettent de distinguer le vivant du non-vivant. [C’est la théorie de Daniel Kahneman, Note de l'orateur]. Un premier système est de considérer si l’objet, la créature est dotée d’une autonomie d’objectif, c’est le vivant qui est doté d’une autonomie d’objectif, donc de ce point de vue-là l’être humain ne se trompe pas. Évidemment la machine n’est pas dotée d’une autonomie d’objectif, elle a un programmeur derrière elle, elle est programmée, etc.
En revanche l’être humain a un autre système qui lui permet d’organiser sa vie, ses relations avec son environnement, c’est le fait d’intégrer ou pas une créature dans son réseau relationnel. [Ce système est rapide et intuitif,Note de l'orateur] Or ces machines, bien que nous ne leur accordions jamais la capacité d’être vivantes ou d’être autonomes, nous allons les intégrer de plus en plus dans notre vie relationnelle.

Philippe Mabille : Oui, effectivement nos smartphones avec Siri…

Laurence Devillers : On en est déjà là !

Serge Tisseron : Oui, sauf qu’avec notre smartphone nous parlons beaucoup à des gens que nous connaissons, que nous ne connaissons pas, mais nous parlons encore peu avec notre smartphone [sinon pour relayer des commandes simples comme entrer une adresse au GPS, Note de l'orateur]. En revanche, dans quelques années, nous parlerons probablement beaucoup avec nos robots conversationnels et surtout avec ceux dont nous verrons le visage sur l’écran de notre smartphone. C’est vraiment promis à un bel avenir.
Aujourd’hui, pour résumer, pour moi, dans le domaine de la robotique, on en est là où on en était avec les automobiles en 1920. Le problème c’est qu’à l’époque personne ne s’est vraiment préoccupé des dangers qu’il pouvait y avoir à ne pas sécuriser l’habitacle, à ne pas se préoccuper de la puissance du moteur.
Aujourd’hui, on est exactement dans la même situation. [Il ne faut pas que l’état n’abandonne pas la fabrication des robots aux constructeurs de la même façon qu’il a abandonné pendant 50 ans la fabrication des voitures aux constructeurs, Note de l'orateur]. Donc les robots c’est formidable, si je m’y intéresse c'est parce que j’espère en voir des plus perfectionnés possibles, de vivre très longtemps pour voir des robots très perfectionnés.

Laurence Devillers : Attention !

Serge Tisseron : J’en ai vraiment envie, mais, en même temps, je ne peux pas sous-estimer le risque, je ne veux pas que les mêmes conneries soient faites avec la robotique qu’avec l’automobile ou le smartphone puisque, aujourd’hui, on voit des tas de gens qui me disent dans des conférences : « Monsieur Tisseron, il fallait nous dire un peu plus tôt qu’il ne fallait pas confier un smartphone à un enfant ». D’ailleurs dans mon dernier livre, j’explique que les balises « 3,6,9,12 » que vous avez eu la gentillesse d’évoquer tout à l’heure pour les écrans, eh bien on peut aussi les appliquer aux différentes formes de machines parlantes ou d’objets téléopérés qui vont de plus en plus occuper notre environnement ; avant 6 ans, même jusqu’à 6 ans, ces objets vont être très problématiques.

Philippe Mabille : Je voudrais passer de nouveau la parole à Ysens qui n’a pas beaucoup parlé. J’aurais voulu, Ysens, au-delà de la question militaire que vous connaissez bien, jusqu’à quel point, effectivement, on doit se poser la question d’une législation, d’un droit des robots, d’un droit de l’humain par rapport aux robots et peut-être demain faudra-t-il se poser la question, si on met de plus en plus d’humanité dans ces robots, d’un droit des robots lui-même à être protégés contre la méchanceté des humains.

Ysens de France : Je reviendrai juste deux petites secondes sur ce qui vient d’être dit. Effectivement l’utilisation du terme « robot » c’est d’abord un outil d’influence, un outil de puissance et de pouvoir dont se servent les États au sein d’une course technologique. C’est hyper-important de faire aussi de la géopolitique quand on fait de la robotique parce que c’est vraiment le symbole d’une course technologique entre les Américains, les Chinois dans une moindre mesure, mais quand même les Chinois, les Israéliens.

Laurence Devillers : Les Japonais.

Ysens de France : Les Japonais, bien sûr, et en fait on le voit bien. Quand Poutine dit « il y a Terminator qui défile » et juste après on a tout le ministère des Armées qui dit « il n’y a aura jamais de Terminator le 14 juillet chez nous », on sent bien qu’on est avant tout dans un discours politique et il est très important de comprendre qu’on est avant tout dans une course technologique qui est ce qu’on appelle une guerre froide 2.0. C’est qui va avoir une technologie la plus avancée.
Je me permettrai juste de rappeler quelque chose. On imagine que cette guerre est très technologique, en réalité je pense que cette guerre est avant tout juridique, parce qu’on voit bien qu’en fait tous les pays, finalement, auront accès à cette technologie, disposeront de cette technologie. En réalité, le premier pays qui arrivera à créer un véritable droit de la robotique, pas du robot, ça c’est très important, comme vous ne dites pas « un droit de l’ordinateur », vous ne direz pas « un droit du robot ».

Laurence Devillers : Un droit de la voiture !

Ysens de France : Et la Commission européenne là-dessus a vraiment, pour moi, une longueur d’avance parce qu’il y a quand même des réflexions.

Laurence Devillers : Ah non !

Ysens de France : C’est très bien, comme ça on va pouvoir en parler.

Laurence Devillers : C’est intéressant ce que vous dites.

Ysens de France : Je veux dire que les réflexions sont là, les réflexions éthiques sont là. Mais à quoi sert l’éthique ? En fait pourquoi il faut lier l’éthique et le droit ? Comme je vous le disais tout à l’heure, le droit ne peut pas intervenir sur une technologie qu’il ne connaît pas, d’où l’importance de l’éthique qui est dispositif d’attente en fait ; c’est sensibiliser les gens. On accompagne l’éthique avec de l’expérimentation et on sensibilise les gens, on fait de la pédagogie : voilà ce qu’est le robot, voilà ce qu’il n’est pas, voilà ce qu’est un drone, voilà ce qu’est un bot, voilà ce que sont des données et ensuite, une fois que ces technologies seront assez mûres, donc d’avoir une capacité de décider, une vraie capacité de s’adapter – ça arrivera ou ça n’arrivera pas – le droit arrive à ce moment-là pour dire « maintenant on sait de quoi ils sont capables, on sait maintenant dans quelle catégorie on va pouvoir les mettre ». Moi je vous dis catégorie objets, on peut très bien imaginer – ça va faire hurler tous les juristes qui m’écoutent – une petite catégorie intermédiaire entre les robots et les hommes, attention je vais me faire taper dessus, mais sait-on jamais, on ne sait pas de quoi l’avenir est fait, mais à priori ça restera des objets. Donc c’est vraiment important de voir que le robot est avant tout un outil d’influence juridique, qu’est-ce qu’on va faire et puis surtout, au-delà du droit, c’est quelles valeurs ? J’ai deux spécialistes devant moi, mais avant tout les robots véhiculent des valeurs. Donc au-delà de ça, c’est une course aux valeurs. Quel genre de valeurs va réussir à supplanter le monde ? Est-ce qu’on va avoir droit au modèle américain ? Est-ce que ça va être le modèle chinois ? Est-ce que ça va être le modèle israélien ? Est-ce que ça va être le modèle indien ? Le modèle japonais ? Et c’est assez intéressant de vraiment prendre de la hauteur.

Philippe Mabille : Justement, ça me paraît une question très importante ce que vous dites, vous parlez de guerre technologique, vous parlez éthique et droit. On aurait pu commencer par lui, mais on peut aussi terminer par lui. Quand on pense robot on pense évidemment à Isaac Asimov4. On pense évidemment aux quatre lois universelles, non pas les trois lois puisqu’il y en a une quatrième.

Laurence Devillers : Trois plus une.

Philippe Mabille : Les trois plus une, lois universelles de la robotique, parce qu’avec trois lois ça ne suffisait pas. Vous pouvez peut-être nous expliquer Laurence, pour ceux qui ne connaissent pas, quelles sont les règles et pourquoi est-ce qu’on peut imaginer la nécessité d’un droit universel pour la robotique ?

Laurence Devillers : Les trois lois d’Asimov qui sont tu ne tueras pas, tu ne porteras pas atteinte et la dernière loi qui était si compliquée qu’il l’a expliquée durant 50 ans à travers tous ses livres de science-fiction, étaient formidables dans des environnements de guerre.

Philippe Mabille : C’était historicisé dans la guerre froide.

Laurence Devillers : Dans le livre Les robots et les hommes, j’avais fait les règles, les commandements pour les robots sociaux, en interaction avec nous, ce qui n’était pas tellement le cas, c’était plus dans un environnement de guerre.
Je voudrais revenir sur la Communauté européenne et nos valeurs. Asimov, si vous voulez, c’est de la science-fiction et je crois que maintenant personne ne considère qu’on va faire émerger des lois d’Asimov, des règles, pour l’aspect juridique.

Philippe Mabille : Il a découvert quand même des lois universelles.

Laurence Devillers : Non, non ! L’aspect juridique est plus développé actuellement aux États-Unis, c’est là où c’est le plus développé. En Californie ils ont fait un droit sur les agents conversationnels pour dire « tout concepteur de ces agents doit faire en sorte que l’interactant comprenne que c’est une machine ou un humain ». Californie. Pourquoi on ne fait pas la même chose ? On est en train de pousser pour ça sur l’Europe.
Une deuxième chose que je viens d’entendre c’est sur la reconnaissance faciale que pourraient embarquer ces systèmes si tant qu’ils aient des yeux, enfin des caméras. Je fais partie des gens qui travaillent sur les émotions depuis les années 2000, là aussi, je peux vous dire que ce n’est pas générique comme technologie, que ça fait beaucoup d’erreurs et à l’heure actuelle, alors qu’on pourrait le dire de l’Europe, eh bien non, on préfère se complaire dans les mythes et les fantasmes et les États-Unis qui sont un peu plus pragmatiques que nous commencent à avancer sur ce terrain-là en disant, et il y a des tas de chercheurs qui relaient, « 30 % d’erreurs dans un système qui détecte vos émotions sur votre visage, à quoi ça sert ? » Ça va arriver à faire des systèmes qui ne seront pas fiables et qui ne seront sûrement pas utilisés.
Je termine. Pourquoi j’ai réagi tout à l’heure sur l’Europe ? Il y avait dans un des rapports qui n’existe plus maintenant parce que le groupe des experts fait un excellent travail, mais avant il y avait eu un rapport disant « peut-être que oui, donner une personnalité juridique aux robots serait intéressant ». Il y avait une espèce de lobbying autour de ça qui était une idée absolument terrible.
Je reviens maintenant sur le dernier point. Je fais partie d’un groupe qui est né du G7 qui s’appelle le GPAI, Global Partnership on Artificial Intelligence, qui est donc la volonté de faire au niveau mondial des règles éthiques ou juridiques, en tout cas pousser les expérimentations ensemble. On va retrouver 15 membres qui sont le Japon, l’Inde, la Corée du Sud, Singapour, l’Australie, mais également des pays d’Europe, l’Union européenne et l’Unesco. Il me semble que c’est par le biais de ce comité international qu’on va arriver à faire des choses.
Je résume juste. Ça a été lancé mi-juin, le kick-off est demain matin, je ne peux pas vous parler encore de ce qui sera dedans. On est 25 experts par groupe, il y a quatre sujets.
Le premier sujet ce sont les data, qu’est-ce qu’on en fait, la gouvernance de l’IA et l’éthique. Ces deux sujets sont portés par le Canada principalement parce que c’est l’accord entre Trudeau et Macron qui a fait émerger cette nouvelle idée de comité international.
En France on aura deux sujets, The futur of work avec des machines, avec de l’IA et je fais partie de ce groupe-là, donc je vais parler des robots et de la coopération humain-machine qu’il faut démystifier et comprendre comment on prend ses décisions. Système 1, système 2 ça vient d’un prix Nobel en économie. Il y a énormément de travaux qui sont faits pour mieux comprendre nos biais cognitifs et pourquoi on va réagir d’une certaine manière ou pas, pourquoi aussi on anthropomorphise ces machines.
Le quatrième sujet c’est l’innovation et la commercialisation, c’est-à-dire, en fait, toutes les règles de vérification des objets qu’on met trop vite sur le marché en ce moment, parce que le temps des startups n’est pas le temps du juridique. Et heureusement qu’il y a l’éthique en avant-scène, avant le juridique, pour essayer justement d’expérimenter, de comprendre, de voir où sont le lignes rouges à mettre. Et je pense que c’est quelque chose de très positif de penser qu’on arrive à mettre différents ensemble pays pour discuter de ces sujets. J’espère qu’on avancera dans cette recherche pour éviter effectivement toutes ces croyances un peu bigarrées qu’on voit partout.
Mais j‘adore Asimov par ailleurs.

Philippe Mabille : Il faudrait concilier la Silicon Valley et Hollywood ! D’accord.

Laurence Devillers : Non !

Serge Tisseron : Tout ça est effectivement très positif, mais il ne faut pas non plus donner l’impression aux gens qu’il y a des experts qui se penchent sur ces questions. Vous savez, on a trop souvent entendu « ne vous inquiétez pas, nous sommes en train de réfléchir à ces problèmes, dormez tranquillement bonnes gens, nous allons veiller à ce qu’il y ait des mesures législatives pour vous protéger. »
Je pense que déjà il faut que tous les parents qui achètent une enceinte connectée soient très informés de la manière dont elle peut prélever leurs données parfois sans qu’ils s’en rendent compte. Il faut qu’ils soient informés de la façon dont leurs enfants peuvent jouer avec ces enceintes et leur raconter des tas de choses que peut-être que les parents n’auraient pas trop envie qu’on leur raconte. Et aussi que les parents se soucient de la manière dont leurs enfants peuvent établir une relation privilégiée au fur et à mesure que ces machines deviendront plus performantes.

Philippe Mabille : Il faudra une éducation.

Laurence Devillers : Oui, il faut une éducation à ça.

Serge Tisseron : Si vous regardez les premières publicités, les trois publicités pour Alexa l’enceinte connectée d’Amazon, il y en une des trois des enfants passant leur journée avec pour seul compagnon leur enceinte connectée. Le père n’apparaît que le soir, au moment du coucher.

Laurence Devillers : Publicité mensongère.

Philippe Mabille : C’est quand même un élément de danger, parce que c’est qu’est-ce que c’est le robot ? C’est la propension de l’homme à la paresse quand même !

Laurence Devillers : On est d’accord, c’est tout à fait ça.

Philippe Mabille : Il va le remplacer dans les tâches humaines, donc cette paresse caractéristique à tous ou, en tout cas, cette facilité qu’on peut donner, il faut éduquer aux dangers que ça peut représenter notamment pour les nouvelles générations. Regardez les nouvelles générations, elles vont dire c’est formidable, on a un robot qui va faire le travail à notre place.

Laurence Devillers : D’autant plus qu’il y a 80 % des codeurs qui sont des hommes et qui ont fait ces machines, qui parlent avec des voix féminines. Je ne vous raconte pas les biais.

Philippe Mabille : Il y a des biais importants.

Serge Tisseron : Il faut accorer beaucoup d’importance, avant même que cette commission ait statué, pour informer sur le risque d’avoir des voix féminines majoritairement sur ces machines.

Laurence Devillers : C’est ce que je fais, c’est ce qu’on fait.

Serge Tisseron : C’est ce que vous faites, je sais que c’est ce que vous faites, mais il faut aussi en parler. Donc comme ce n’était pas dit je le dis, tout simplement.

Laurence Devillers : Je viens de le dire aussi.

Serge Tisseron : Il faut aussi informer sur le risque des enceintes connectées, ce n’est pas pour les enfants de moins de trois ans et même, je pense, avant six ans.

Laurence Devillers : Bien sûr. Serge Tisseron on est complètement d’accord.

Serge Tisseron : Pour ça, on n’a pas besoin que des commissions se soient réunies pendant des années, réunissant de nombreux pays, pour le dire dès aujourd’hui.

Laurence Devillers : C’est parce qu’on est paresseux ce qu’a dit.

Serge Tisseron : C’est pour ça qu’à l’Institut pour l’étude des relations homme-robots on a une campagne sur ces thèmes de manière à ce que les parents dès aujourd’hui se protègent de la manière dont ils peuvent se protéger, protègent leurs enfants comme ils peuvent les protéger.

Laurence Devillers : Je ne suis pas pour un État-providence, des règles et des experts qui décident pour tout monde, mais je ne suis pas non plus pour dire que c’est aux parents d’éduquer ; c’est à tout le monde de réagir dans cette jungle. Il y a une espèce de compromis à avoir, de milieu intelligent à avoir. Je suis plutôt positive en me disant que si on met toutes nos énergies non pas à faire peur mais à aller vers une construction autour de ces machines, que ça soit au niveau éthique, au niveau légal et au niveau inclusion. J'étais à ça hier : urgence des alliances, culture et science, culture et environnement et science. Il nous manque, en fait, des endroits où on fait participer tout le monde autour de sujets de société. Pourquoi on ne parle pas plus des robots ? Vous me parlez encore d’Asimov c’est pour ça que je réagissais comme ça. On devrait avoir toute une littérature, on commence en avoir mais c’est trop « essais scientifiques ». On devrait avoir du théâtre, on devrait avoir des lieux où des artistes s’expriment de plus en plus avec des robots pour faire comprendre ce que c’est, je pense que ça c’est essentiel. Il faut aller vers a culture de tous, l’inclusion et on apprendra mieux d’ailleurs quelles sont les limites à mettre.

Serge Tisseron : On appelle ça le débat citoyen. En effet on en fait, une série de débats citoyens.

Laurence Devillers : Ce n’est pas que le débat citoyen.

Serge Tisseron : C’est un des aspects : beaucoup de manifestations artistiques aujourd’hui autour de ces thèmes, beaucoup de débat dans les écoles, tout cela est très bien.
En tout cas je crois qu’il ne faut lâcher aucun des bouts de la lutte. En effet c’est bien que les législateurs réfléchissent, mais il ne faut pas non plus attendre qu’une législation soit arrivée pour mettre les gens en garde contre un certain nombre de risques que ces machines présentent.

Philippe Mabille : Serge Tisseron, je vous entends, mais regardez comment nos enfants y compris les plus jeunes, c’est vrai que ce sont les parents qui leur mettent ça dans les mains, se sont appropriés le smartphone qui est quand même le principal robot qu’on a dans la poche. Imaginez ce que ça peut donner si vous vous projetez, dans quel monde technologique vont vivre les enfants de nos enfants. On voit bien que ce qui nous paraît aujourd’hui un danger, peut-être demain leur paraîtra tout simplement naturel, ils auront l’habitude, je suis d’accord avec vous sur l’éducation, mais ils auront été formés et informés.

Serge Tisseron : Il y a un certain nombre de paliers dans l’évolution de l’enfant. On sait que la théorie de l’esprit n’apparaît qu’aux alentours de quatre ans et demi. Or aujourd’hui Google et Amazon font campagne pour leurs enceintes connectées [à destination des enfants très jeunes, Note de l'orateur].

Philippe Mabille : Ce que vous dites sur la technologie c’est la même chose que l’effet psychologique de la télévision à la maison.

Serge Tisseron : Attendez ! Actuellement Amazon fait campagne aux États-Unis sur le thème de, ouvrez les guillemets, « Parents, les experts vous ont convaincus que les écrans sont nocifs pour vos enfants, achetez-leur plutôt une enceinte connectée », fin de la citation.

Laurence Devillers : Bravo !

Serge Tisseron : C’est une publicité terriblement mensongère. Les enceintes connectées sont aussi dangereuses pour les jeunes enfants que le sont les écrans et même plus parce qu’elles capturent un grand nombre de données sans qu’ils en comprennent les tenants et les aboutissants. La pire des situations étant un programme sur un écran qui invite l’enfant à interagir avec une enceinte connectée, de telle façon que l’enfant est est transformé en interface entre deux machines. Il ne faut pas sous-estimer l’importance de ces risques qui existent d’ores et déjà.

Philippe Mabille : On ne les sous-estime pas sinon on n’aurait pas fait cette émission.

Laurence Devillers : Bravo d’ailleurs.

Philippe Mabille : Est-ce qu’on peut écouter là-dessus, ça sera peut-être un mot de conclusion, Ysens de France, y compris, je ne sais pas si vous avez envie de réagir sur ce que vous voulez, moi je trouve que cet aspect générationnel, c’est-à-dire si on projette, au-delà du militaire, nos vies et les vies de nos enfants avec des robots, comment vous voyez les choses et qu’est-ce que ça va nécessiter comme garde-fous ou pas ?

Ysens de France : Je vais rebondir sur ce que dit Serge Tisseron sur l’éducation auprès des jeunes. En fait, ce que je constate aujourd’hui c’est que dans la société il y a aussi une défiance envers le milieu scientifique, envers la science en général.

Laurence Devillers : Mais non !

Ysens de France : Un peu quand même !

Laurence Devillers : Ils ont fait des statistiques, des tas de questions comme ça au CNRS à l’Inria, ce n’est pas vrai, ce sont des bruits de couloir.

Philippe Mabille : Est-ce qu’on peut quand même laisser terminer Ysens et après vous réagirez.

Ysens de France : Si ce sont des bruits de couloir, s’ils ont existé, ça veut dire qu’on s’est posé une question. Ça veut dire finalement que soit les scientifiques ne sont pas accessibles et qu’il y a effectivement un vrai effort de traduction, soit en fait, tout simplement, que la société en a marre qu’on lui assène des vérités tout le temps, qu’on lui dise que les jeux vidéos ce n’est pas bien, c’est interdit, le robot attention. Plutôt que d’asséner des vérités, je pense qu’il faut plutôt soulever des interrogations et c’est vrai qu’en soulevant ces interrogations ça oblige les gens à y répondre par eux-mêmes et dans le processus normal de réfléchir aux tenants et aux aboutissants.
C’est pour ça que je suis d’accord aussi avec vous, Laurence Devillers, sur le format de culture. Effectivement, utiliser des pièces de théâtre ou, imaginons, utiliser aussi le sport pour faire des compétitions homme-robot, pour permettre en fait à chacun de s’engager sur ces questions-là, me semble aujourd’hui une des priorités.

C’est vraiment la notion d’expérimentation qu’il faut mettre en valeur qui est une vraie priorité. Grâce à ça, grâce à cette expérimentation, grâce aussi à l’accessibilité des scientifiques, ça va être un moyen de les rendre plus accessibles, de traduire leur parole, eh bien on arrivera, nous juristes, ensuite, à déterminer quelle sera a meilleure qualification juridique pour ces technologies.

Laurence Devillers : 100 % d’accord. C’est tout à fait vrai.

Ysens de France : Finalement il faut poser les questions, il faut que toutes les réflexions soient un peu transverses, qu’il y ait aussi des hubs de réflexion. Typiquement on a des scientifiques, on a des industriels.

Laurence Devillers : Lisez Télérama. C’est exactement ça, j’ai trouvé brillant de faire ça.

Ysens de France : C’est exactement ça. On ne peut plus réfléchir chacun de son côté. Il faut aussi utiliser les outils de communication qu’on nous donne et qui sensibilisent les jeunes : le sport, la culture, le format théâtre bien évidemment, mais il y a encore plein de manières de sensibiliser les jeunes. En fait qu'on travaille sur ces façons.

Philippe Mabille : On arrive un peu au terme de la discussion.
Une chose qui réconciliera peut-être tout le monde, ce qui est à peu près certain c’est que les robots vont arriver dans nos vies, ils auront des aspects positifs – les personnes âgées, isolées, on l’a bien vu par exemple dans les Ehpad, on a essayé de leur apporter des solutions avec des connectivités avec leurs familles ; il y a beaucoup de pays qui sont vieillissants, le Japon, avec effectivement l’utilisation de robots. Il y a des robots qui peuvent être aussi des aides, des auxiliaires pour l’humain. Il y a quand même beaucoup de choses positives avec l’arrivée sinon de la robotique en tout cas de ces technologies.
Pour terminer en beauté ce podcast pour la partie vidéo, un mot ou un geste, prouvez-moi que nous n’êtes pas un robot. Ysens.

Ysens de France : Atchoum !

Laurence Devillers : Non, Nao fait ça. Il fait ça avec des enfants.

Ysens de France : Alors là ! Mince ! Boire du vin, je ne sais pas si ça passe à la vidéo, mais boire du vin.

Philippe Mabille : Très bien ! Laurence, prouvez-moi que vous n’êtes pas un robot.

Laurence Devillers : On a déjà pris un verre d’eau. Vous voulez que je mange une pomme, j’aime bien manger une pomme et dire que ça a bon goût, parce que le robot lui !

Philippe Mabille : Il n’a pas encore le goût. Serge, vous êtes un robot ?

Serge Tisseron : Je vous laisse avec cette question !

Philippe Mabille : Voilà ! Nous allons nous quitter là-dessus. Regardez, j’ai des lunettes parce que je commence à prendre un peu d’âge, donc je ne vois rien. J’essaye de vous prouver que je suis un robot, sans mes lunettes de vue je n’aurais pas pu conduire cette interview.

Laurence Devillers : En tout cas ce fut un plaisir.

Philippe Mabille : Merci beaucoup à tous les trois.

Serge Tisseron : Merci à vous.

Laurence Devillers : Merci Serge. Merci Ysens, on reste en contact.

Philippe Mabille : On vous suivra sur La Tribune très bientôt.

Laurence Devillers : À très bientôt.

Serge Tisseron : Au revoir.

Laurence Devillers : Au revoir.

Conférence de présentation du rapport sur l’état de l’Internet en France - Le débat

APRIL - jeu, 09/10/2020 - 16:18


Titre : Conférence de présentation du rapport sur l’état de l’Internet en France - Le débat
Intervenants : Sébastien Soriano, président de l’ARCEP - Benjamin Bayart, coprésident de la FFDN
Lieu : visioconférence
Date : 25 juin 2020
Durée : 38 min
Visualiser la vidéo sur PeerTube
Site de présentation de l'événement
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo - Mentions légales
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

L’ARCEP [Autorité de Régulation des Communications Électroniques et des Postes] a publié le 25 juin l’édition 2020 de son rapport sur l’état d’Internet en France, remis au Parlement et présenté lors d’une conférence de presse en ligne suivie d’un débat entre Sébastien Soriano, président de l’Arcep, et Benjamin Bayart, cofondateur de la Quadrature du Net et coprésident de la Fédération des fournisseurs d'accès à internet associatifs, sur le thème : « Les réseaux dans la crise sanitaire : quelles leçons en tirer ? »

Transcription

Sébastien Soriano : Re-bonjour et bienvenue à notre présentation annuelle du rapport sur l'état d'Internet. Maintenant, nous passons à la phase de débat.
Je suis ravi d'accueillir Benjamin Bayart, co-fondateur de La Quadrature du Net1 et vice-président de la Fédération FDN2. Je suis très heureux qu'on puisse avoir cette discussion.
L'idée, c'est un petit peu, en gros, de refaire le match, par rapport à cette séquence particulière du confinement, sur laquelle, voilà, on est conscient que cela a amené les pouvoirs publics à une posture un peu particulière pour accompagner cette gestion des réseaux. Et naturellement, c'est bien qu'on en parle.
Premier sujet, la question de la gestion des réseaux pendant la crise.
Qu'est-ce que cela interroge aussi sur la neutralité du Net, de manière générale.
Est-ce qu'il faut aller plus loin dans cette neutralité et ouvrir vers les terminaux, vers les plateformes structurantes. Il y a un débat, vous savez, au niveau européen sur cette question.
Et puis, si on peut aussi se dire un mot sur l'environnement. Je pense que ça serait utile. On voit notamment parfois une tentation et une opposition entre la générosité d'Internet et l’exigence environnementale et on peut avoir parfois, dans certaines élaborations autour de l'environnement, un peu une idée de restriction, c'est-à-dire il faut arrêter les forfaits illimités, il faut arrêter tels types d'usage ; quelque part cela interroge aussi la neutralité.
Je propose qu'on commence. Honneur aux invités, donc Benjamin Bayart, à vous la parole.

Benjamin Bayart : Merci Sébastien. La particularité de l'usage d'Internet pendant le confinement et pendant la crise sanitaire, il y a pour moi trois éléments clés qui me paraissent très structurants.

  • Le premier, c'est que ça fait partie des moments où l'on voit bien que le déploiement des réseaux doit être pensé comme un aménagement du territoire et que partout où ce n'est pas assez le cas, ça donne des résultats discutables. Typiquement, on se rend compte que toutes les zones blanches ou gris clair où il y a soit de l'ADSL pas très rapide soit carrément rien, ce sont des zones dans lesquelles on ne peut pas télétravailler, ce sont des zones dans lesquelles on est obligé d'aller au bureau pour avoir un peu d'accès réseau et pouvoir bosser avec l'ordinateur. Ça c'est un problème.
  • Il y a un deuxième élément, qui est celui dont tout le monde parlait au tout début du confinement, ça a duré peut-être une petite semaine, qui pour moi se résume à la résilience par la capacité. Et pour le coup, ça c'est un gain immense qu'on a en France et en Europe sur la neutralité du Net : le fait que le réseau soit à peu prêt neutre oblige à gérer sa résilience par la surcapacité, donc à avoir plus d'accès disponible que ce qu'on utilise à un moment donné pour rester neutre en cas de pic d'utilisation. C'est ça qui permet que sur un réseau Internet neutre, les usages changent du tout au tout pendant deux mois et que le réseau ne s'effondre pas.
  • Et puis le troisième élément, c'est le retard dans l'usage du numérique d'un certain nombre de TPE et PME, qui se traduit mécaniquement par le fait que, dans ces entreprises-là, le télétravail a été fait un peu en mode panique, avec pas les bons outils, avec pas les bons équipements, pas habitués à le faire, etc. Ça fait partie pour moi des éléments qui posent questions.

Sébastien Soriano : Très bien, merci d'avoir lancé le débat. Je dois dire que je rejoins assez largement ce que vous avez indiqué.
Sur le fait que les réseaux doivent être déployés dans une logique d'intérêt général, je dirais que c'est ce qu'on essaie de faire mais en s'appuyant sur les forces du marché. Voilà, c'est là où c'est forcément une équation qui a ses limites. C'est d'utiliser la puissance d'investissement du marché et la prise de risque que peut prendre un investisseur privé, mais, en même temps, d'éviter les mauvais côtés qui sont l'écrémage, le fait qu'on va dans les zones prioritaires, que les foyers les moins solvables peuvent être oubliés. C'est dans cette logique là que s'inscrit notamment le Plan France Très Haut Débit3, on pourra en reparler. C'est dans cette logique-là que s'inscrit aussi le New deal mobile4 pour apporter la 4G le plus loin possible dans les campagnes.

Sur la résilience par la capacité, je pense qu'il y a un vrai sujet, j'aimerais bien vous interroger là-dessus Benjamin Bayart. Dans le débat sur la neutralité du Net, cela se cristallise souvent autour du zero-rating. Typiquement, une offre de zero-rating, c'est vous avez 20 Go par mois dans votre abonnement mobile, plus WhatsApp illimité par exemple. Quand vous voyez ce genre d'offre, vous vous dites « c'est génial parce que on peut continuer à avoir WhatsApp qui est un service de communication sur lequel beaucoup de gens ont fondé beaucoup de leurs communications, sans avoir à compter, et puis, par ailleurs, quand on va faire une vidéo ou autre il faut faire un petit peu plus attention ». Et là, vous avez un débat, un arbitrage court terme/long terme. C'est-à-dire que nous, en tant que régulateur et gardien de la neutralité du Net, on a tendance à dire que OK, c'est vrai que c'est bien à court terme pour le consommateur. Mais en fait, à long terme, le problème c'est que si on peut, comme ça, spécialiser les usages, on n'a plus intérêt, comme vous le dites Benjamin, à bien dimensionner les offres et à faire des offres très riches quels que soient les usages, et on n'a pas intérêt à dimensionner son réseau pour supporter des usages neutres.
La question que j'aimerais vous poser — je souscris complètement à cette histoire en longue période — maintenant, dans le confinement, je trouve que la question est un peu différente : on peut avoir tout d'un coup un accroissement des usages, qui n'était pas forcément anticipable car on ne peut pas forcément demander aux opérateurs d'avoir anticipé le fait que les réseaux puissent tout d'un coup supporter un pays qui s'est confiné et on a pas la capacité à répondre rapidement en accroissant les capacités, parce qu'on ne va pas se mettre à déployer un réseau en fibre optique dans tout le pays en deux semaines. Donc, dans ces situations particulières dans lesquelles cette courbe de rétroaction qu'on veut créer entre la demande et l'offre, qui est une courbe de rétroaction de moyen terme, quand on est dans des situations d'urgence comme ça de court terme, comment peut-on les concilier ?

Benjamin Bayart : Il y a pour moi une bonne façon de le décrire qui est d'expliquer que la neutralité du réseau c'est le contraire de l'optimisation. L'optimisation des réseaux rend les réseaux inaptes. Je m'explique. Si on fait des réseaux très optimisés, on dit « les professionnels ont tels et tels exigences, il leur faut du débit garanti, des garanties de temps de rétablissement, etc., donc l'accès Internet de l'entreprise va être vachement plus mieux parce qu'il y aura tel ou tel bidule dessus ». En fait, sitôt qu'on se retrouve à rester confiner, en fait sitôt que l'usage change, quel que soit le motif du changement, le réseau est inadapté puisqu'il a été optimisé pour un usage et que dès que l'usage bouge, le réseau n'est pas optimisé comme il faut, donc il va être moins résilient.
Et pour moi, c'est parce qu'on a fait le travail de long terme de non adaptation et de non optimisation des réseaux, de dire « on a besoin que les réseaux soient en capacité, pas pour qu'ils soient pour un usage optimal », il ne faut pas qu'ils s'effondre dès qu'on s'éloigne de cet usage optimal, c'est ça qui fait que ça continue à fonctionner quand les usages bougent beaucoup.
Comment on fait pour s'adapter en temps de crise ? En fait ça dépend de quoi ? Effectivement, ce n'est pas en deux semaines qu'on va déployer un réseau de fibre optique, mais je trouve que pendant ces deux semaines là, on voit bien que la façon dont on a déployé le réseau de fibre optique est, à mon sens, fait à l'envers. C'est-à-dire que le Parisien moyen qui doit télétravailler, il peut utiliser de l'ADSL et du VDSL haut débit, il peut utiliser du câble qui patate à mort, il peut utiliser de la 4G qui dépote, il peut utiliser de la fibre. Et l'habitant d'un village de la Creuse, eh bien non ! iIl a peut-être un de ces réseaux mais pas tous les choix en même temps. Ça, pour le coup, c'est du choix de long terme, c'est trop tard quand la crise arrive, c'est avant qu'il faut le voir. C'est pour ça que pour moi, typiquement, le New Deal Mobile est plus intéressant que l'urgence à amener la 4G dans le 1er arrondissement de Paris, ou la 5G, c'est-à-dire que déployer la 5G à Paris, en tout cas en termes de capacité réseau, ça ne sert à rien. Si on me dit que dans les zones blanches, dans la Creuse, quitte à poser une antenne, elle sera immédiatement compatible 5G, c'est formidable ! C'est bien dans ce sens là que je le réfléchis.
Après, sur la façon de s'adapter quand la crise survient, ça ne peut pas se faire en changeant la boucle locale, ça peut se faire en changeant des interconnexions, parce que, pour le coup, monter certaines interconnexions, ça peut se faire dans des délais très courts, d'ailleurs il y en a eu pas mal de monter pendant le confinement : les opérateurs ont constaté que tel ou tel point d'interconnexion qui étaient très peu sollicités en temps normal, se retrouvaient sur-sollicités parce que, que sais-je, tout le monde s'est mis à utiliser Zoom alors que presque personne ne s'en servait, parce que les réseaux sollicités étaient les réseaux grand public au lieu d'être les réseaux d'entreprises. Ce n'est pas très compliqué de redimensionner une interconnexion.
Et puis on a trouvé des solutions beaucoup plus efficaces précisément parce qu'il y avait ce verrou très fort de la neutralité du Net. En fait, comme on a dit aux opérateurs « ce n'est pas bien de prioriser », ils ont cherché d'autres solutions pour faire de la contention sur les deux énormes gouffres de trafic que sont YouTube et Netflix, et on a trouvé des solutions intelligentes qui étaient de dire à Netflix : « OK, pendant la période, si vous pouvez mettre de la haute définition plutôt que de la 4K, ce n'est pas mal, ça va diviser par deux le trafic, tout le monde pourra regarder sa série et cependant le trafic sera réduit et tout va bien se passer ». En fait, on a trouvé en discutant avec les fournisseurs de contenus, des solutions beaucoup plus intelligentes pour gérer la congestion que juste en le traitant par la non neutralité des réseaux.
La non neutralité des réseaux qui revenait à dire parce que Jean-Paul Durant, il est en télétravail alors sa box coupe tous les flux vidéos de type YouTube, Netflix and co, ça apportait une réponse mais qui n'était pas la bonne. C'était beaucoup plus intelligent de voir avec les plateformes comment on peut, dans certaines zones et sous certaines conditions, typiquement dans les pays d'Europe où il n'y a pas assez de très haut débit ou dans les zones où il n'y a que l'ADSL ou etc., réduire un peu le débit sans filtrer le service. Et c'est beaucoup plus intéressant et beaucoup plus intelligent de jouer sur la capacité des utilisateurs à modérer leurs usages et des plateformes à piloter ce qu'elles produisent comme contenu, que de faire faire l'intervention par le réseau qui va amener des effets de bord beaucoup plus néfastes soit à très court terme : typiquement si on avait dit « on coupe Netflix », cela amenait des effets beaucoup plus néfastes que de simplement dire à Netflix « si vous pouvez diminuer un petit peu la qualité des vidéos, ça devrait fonctionner ».
Donc je trouve qu'on a trouvé des solutions extrêmement intelligentes et qu'en fait on les a trouvé parce que la neutralité du Net était une contrainte. Si on n'avait pas eu cette contrainte, l'approche qui consistait à dire « les opérateurs peuvent prioriser comment ils veulent » aurait donné très rapidement n'importe quoi.
Typiquement, si je prends un parallèle de marché, on a un peu oublié mais au début du mois de mars, la réponse des opérateurs a été de dire « OK, on va déplafonner certains forfaits mobiles, des gens qui avaient des tout petits forfaits à quelques euros, donc qui ont très peu de volume de data, vous pouvez utiliser des grands volumes, etc., on déplafonne, etc., on ouvre. » Donc les opérateurs ont pris cette approche que je trouve relativement positive. Alors que d'autres opérateurs commerciaux, par exemple les honorables corporations de pharmaciens, sont arrivés à la conclusion que le litre de gèle hydro-alcoolique était plus cher que le Château d'Yquem, juste parce qu'il y avait une très forte demande et très peu de disponibilité, et qu'il y avait moyen de faire des sous. Je trouve qu'on a deux comportements du marché face à une crise et face à une potentielle pénurie. J'aime mieux la méthode où le marché cherche s'adapter en rendant service aux gens de manière intelligente plutôt que juste à chercher une source de profit immédiate.
Je suis très agréablement satisfait de ce qu'on fait mes confères opérateurs grand public : s'adapter intelligemment alors qu'ils auraient pu s'adapter bêtement. Et je pense que ce qui les a tordu un peu pour les amener dans cette forme d'intelligence, c'est le fait qu'il y ait le Règlement européen sur la neutralité des réseaux5.

Sébastien Soriano : OK. Merci. Effectivement, c'est intéressant comme analyse. Ce sont les architectes qui disent toujours que quand ils n'ont pas de contraintes, ils ne savent pas créer. Sans doute que la contrainte de la neutralité a été un élément de créativité.
Nous, à l'ARCEP, on n'a pas réussi encore à ce jour, à avoir une vision claire de l'impact qu'ont eu les efforts sur la qualité de service. C'est un élément sur lequel on a du mal à vraiment voir, on n'a pas vu, en fait, des baisses de trafic du jour au lendemain chez les grands OTT [Over-the-top media service] quand les mesures de changement de qualité ont été prises, ça a été difficile pour nous de vraiment mesurer ce qu'il s'est passé, en tout cas on a vu que cela tenait. Mais effectivement, quel est l'impact précis de ces mesures de qualité, ça n'a pas été évident à mesurer.
Un autre élément qui est apparu aussi pendant cette période, avec l'épisode de Disney+. On vient de se parler du dimensionnement des flux notamment par rapport à la qualité vidéo, il y a un autre sujet qui est comment est-ce que les grands OTT s'organisent pour acheminer leur trafic. Ce qui est apparu notamment autour de Disney+, c'est que visiblement cet acteur avait fait un choix pour acheminer son trafic, qui était un choix de passer par plusieurs canaux, des transitaires et des CDN [Réseau de diffusion de contenu], ce qui n'aidait pas forcément à anticiper le dimensionnement des interconnexions des opérateurs vis-à-vis de ces différents intermédiaires pour faire face, le cas échéant, à des afflux de trafic. Au delà de Disney+, on a eu quelques retours d'opérateurs sur des mises à jour logiciel, notamment de grands acteurs du jeu, qui poussaient des mises à jour sans prévenir en fait les grands FAI [Fournisseur d'accès à Internet]. Et là-dessus, la question que je me posais, c'est est-ce que, selon vous, on peut aller encore plus loin dans ce dialogue entre les opérateurs et les grands OTT ? Si oui, faut-il le faire en se disant que ce sont de grandes personnes, elles vont trouver leurs numéros de téléphone respectifs et se parler ? Est-ce que les pouvoirs publics peuvent jouer un rôle pour les accompagner ? Est-ce qu'il faut envisager, je pose la question de manière un peu bourrin, faudrait-il envisager une obligation de dialogue notamment pour les grands OTT d'aller discuter de leurs interconnexion avec les opérateurs ?

Benjamin Bayart : Je comprends que l'idée est séduisante. Ça ne sert à rien de faire discuter les éléphants avec les souris, ça ne marchera pas, je n'y crois pas, dit de manière assez crue. Pour moi, le principe de la neutralité du Net, c'est ce que je disais au début : il ne faut pas optimiser les réseaux, c'est une connerie, quand on les optimise on les rend fragile. Et en fait, exactement en symétrique de ça, parce qu'il ne faut pas optimiser les réseaux, il faut optimiser les applications. Et pour le coup, on a des décennies de sottise législative qu'on est train de payer.
Diffuser une très grosse mise à jour sur une plateforme logicielle sans effondrer les réseaux, on a les technos pour, elles ont 20 ans, ça s'appelle BitTorrent. BitTorrent permet de diffuser une quantité colossale d'application en créant à peu près aucune congestion dans le réseau parce qu'il n'y a pas de point central. Ça utilise le réseau, ça occupe le réseau mais ça ne créé pas cette hyper-congestion de « je veux diffuser un fichier de 50 millions d'exemplaires d'un fichier qui fait 1 Go depuis mon serveur en Californie ».
Simplement, il se trouve que BitTorrent est plus ou moins diabolisé, est considéré comme une techno de malfaiteurs qui veulent écouter de la musique en assassinant les musiciens. Et comme le travail réglementaire a toujours été fait pour empêcher le déploiement de cette techno et non pas pour la favoriser, pour le coup on a l'effet inverse de ce que l'on a fait sur la neutralité du Net. C'est-à-dire qu'on a créé une contrainte qui est de dire « le peer-to-peer ce n'est pas bien, BitTorrent c'est une techno de pirate », donc il y a plein d'opérateurs qui font du traitement de limitation de débit sur BitTorrent, qui font du traitement de filtrage. Typiquement, BitTorrent en entreprise est très souvent filtré, donc on ne peut pas diffuser les mises à jour des suites bureautiques par du BitTorrent, ça ne marcherait pas. Et pourtant, c'est l'outil technique le plus efficace qu'on connaît pour diffuser des gros volumes de contenu de manière infiniment rapide en temps nul. Puisque, pour le coup, plus il y a de gens qui veulent le contenu et plus le contenu se diffuse bien. Plus il y a de gens qui le veulent et plus la capacité à diffuser augmente. BitTorrent c'est un truc de fou ! Donc ça pour moi, c'est une des questions clés : il faut qu'on arrive à autoriser les grands diffuseurs de contenu à diffuser de manière intelligente.
Pour moi, il y a deux grands volets : il y a la partie technique — il faut arrêter de diaboliser les technos qui marchent — et puis il y a la partie réglementaire où il va falloir, à un moment, s'intéresser à la gestion des monopoles. Est-il raisonnable que Netflix ait cette taille-là ?, pour moi la réponse est non. Mais, d'un autre côté, on a tout fait en France, au ministère de la Culture, pour qu'il n'y ait que Netflix et que seul le modèle Netflix se développe. D'ailleurs, une fois que le modèle Netflix s'est développé, les ayants droit, en France, commencent à vouloir créer des plateformes alternatives à leur main, donc à morceler le marché. Pour avoir accès à de la vidéo il faudrait payer 72 abonnements, ce que personne ne fera, donc soit on reviendra à du pirate, soit les plateformes nationales vont mourir et il ne restera que Netflix. Là il y a une erreur de régulation, il y a une non régulation, on a laissé le marché faire tout seul et le marché fait n'importe quoi, parce qu'en plus on lui a mis des contraintes et des incitatifs qui ne vont dans le bon sens.
Et sinon sur le traitement pendant la crise, à un moment je veux qu'on parle de Mayotte, mais ce n'est pas absolument pas lié, ce n'est pas Netflix.

Sébastien Soriano : OK, très bien. Juste en réaction à ça, et peut-être après Benjamin, comme j'ai commencé à poser des questions, je propose que vous m'en rendiez une.
Pour réagir à ce que vous venez d'indiquer sur BitTorrent, je dois vous faire un aveu, qui est que quand j'ai été désigné président de l'ARCEP en janvier 2015, parmi les premiers dossiers qui étaient sur la table, il y en avait un sur la mesure de la qualité de l'Internet. Et dans le document qui avait été préparé par les services de l'ARCEP, j'ai vu apparaître le mot BitTorrent, et j'ai dit « comment c'est possible qu'un document officiel de l'ARCEP fasse de la publicité pour le piratage ? » Et on m'a dit « t'es plus dans le coup papa ! BitTorrent c'est une techno, ce n'est pas un usage. » Donc voilà, évidemment on a fini par laisser BitTorrent dans ce document officiel, mais je vous rejoins sur une certaine diabolisation autour des technos peer-to-peer. Effectivement, on voit bien comment le multicast dans le domaine de la diffusion de la télévision linéaire permet d'optimiser les réseaux. De la même manière, dans certains usages comme les mises à jour et le partage de fichiers de manière général, il est certain que le peer-to-peer est une architecture de communication efficace. Donc je note votre point et on va discuter avec les équipes et avec le collège de l'ARCEP pour voir comment on peut essayer de favoriser cette pratique. Je pense qu'il y aura effectivement un travail de pédagogie avec certains écosystèmes et certains départements ministériels, mais ne parlons pas perdants sur le sujet.

Benjamin Bayart : Alors pour le coup, puisque je suis supposé vous poser une question, il y en a une et je vais en profiter pour intégrer ce que je voulais dire de ce que j'ai vu, moi, de Mayotte, il se trouve que j'ai de la famille là-bas.
Ce que l'on a le plus vu comme saturation dans la crise sanitaire, ce n'est absolument pas les énormes plateformes : je crois que personne n'a vu de panne sur Netflix ou sur YouTube qui soit notable, même la catastrophe annoncée de Disney+, bon ce n'est pas très grave ! En revanche, on a tous vu que les infrastructures de l'Éducation nationale n'étaient absolument pas au point, qu'il n'y avait rien qui fonctionnait, qu'il n'y avait rien qui n'était dimensionné pour. Tout le monde le savait, tout le monde s'y attendait, la preuve, même le ministre a dit que ça marcherait, ce qui est la preuve qu'on savait que ça ne marcherait pas. C'est devenu une habitude ! Donc pour tout le monde, la question était : comment est-ce qu'on fait pour que le gamin qui est sur la tablette puisse suivre son cours pendant que papa et maman sont sur leurs ordinateurs en train de télétravailler ? Et puis on a l'image inverse. Je regarde la question du déploiement du réseau à Mayotte, qui est un département français. La question pour les gamins n'était pas tellement de qui va pouvoir utiliser la tablette et le Wifi de la maison, la question était : comment on va faire de l'école dans les bidonvilles ?, parce qu'il y a à peu près la moitié des habitants de l’île qui habitent plus ou moins dans des bidonvilles. En fait, la question de l'urgence sanitaire n'était même pas tellement comment on va faire des cours en ligne parce qu'on ne se pose pas ces questions-là. Pour une très grande partie des gamins, l'école est le seul endroit où ils ont un repas équilibré une fois par jour et le fait qu'on ferme les écoles, cela voulait dire qu'ils n'avaient plus accès à cette source d'un repas équilibré une fois par jour. Donc la distribution des cours était quelque chose d'extrêmement anecdotique et on se débrouillait comme on pouvait, avec des photocopies qu'on mettait aux entrées des supermarchés.
Là, il y a une question pour moi d'aménagement du territoire qui est une question totale. Il faut déployer des écoles, il faut déployer des logements et, en fait, il faut déployer du réseau pour aller avec. La fracture numérique, on la lit souvent en bon Parisien entre le petit village de la Creuse dans laquelle il y a un petit peu de 3G, pas encore de 4G, il y aura de la fibre optique en 2037 si le plan de déploiement du RIP [Réseau d’Initiative Publique] est suivi, et il y a un petit peu d'ADSL en bout de ligne. Et pour moi, il n'est pas tellement là, il n'est pas que là, c'est une vision très métropolitaine. En fait, il y a beaucoup de départements outremer où la question de l'aménagement du réseau est beaucoup plus sérieuse que ça, où il y a un retard colossal dans le déploiement de ces technos.
Je me demande quelle est la vision de l'ARCEP sur l'état du déploiement du réseau, en particulier dans les territoires d'outremer et spécifiquement à Mayotte qui, pour moi, est probablement le plus mal loti. Je ne sais pas si vous avez une vision plus claire et plus macroscopique que la mienne sur le sujet.

Sébastien Soriano : En fait, pour être honnête, je n'ai pas en tête mentalement la situation des réseaux fixes à Mayotte mais je peux réagir rapidement sur le mobile puisqu'on est en train d'étudier des nouvelles attributions de fréquences dans tous les outremers d'ailleurs. Et effectivement on a procédé à un recensement. C'est l'Agence du numérique qui est maintenant l'Agence nationale de la cohésion et des territoires qui a travaillé avec les préfectures pour recenser des besoins de couverture. Effectivement, il y en a. Il y a effectivement des besoins de couvertures importants en mobile et en 4G. Donc dans les attributions de fréquences que nous sommes en train de préparer, on prévoit des nouvelles obligations pour couvrir des zones prioritaires qui ont été identifiées dans le cadre de ce processus.
On va faire ça un peu plus bourrin que ce que l'on a fait dans le New Deal. Dans le New Deal on a mis en place un processus continu de remontée d'informations en passant par les élus locaux qui est assez sophistiqué. Là, on va faire un one-shot. On a fait un relevé qui nous amène à une liste de sites prioritaires, donc on va imposer dans le cadre de l'attribution des fréquences la couverture de ces zones. Je rejoins effectivement votre diagnostic sur le fait que la connectivité est un besoin qui devient de plus en plus vital. Voilà ce que je peux dire.
Sur le dimensionnement des infrastructures, effectivement on a bien tous notés en début de crise que certaines infrastructures publiques, notamment de l'Éducation nationale et de la région Île-de-France de mémoire, étaient insuffisamment dimensionnées. Je crois que du côté de l'Éducation nationale, il y a d'une manière générale une prise de conscience qu'ils n'étaient pas passé à l'échelle industrielle du numérique, on va dire, de manière générale, dans toutes les dimensions, donc je pense qu'il y a des travaux importants qui vont se passer. C'est peut-être moins visible que le Ségur de la santé mais il y aura aussi des travaux importants qui vont se passer sur le sujet éducatif.
Je voulais aussi dire un mot par rapport à ce que vous disiez sur le fait que Netflix est trop grand et la question des monopoles. Je voulais signaler, parce que ça me parait intéressant, des prises de position récentes d'acteurs sur la question des plateformes de manière générale, ça ne répond pas à Netflix. Il y a une prise de position du BEUC [Bureau européen des unions de consommateurs], qui est le bureau européen des consommateurs, qui n'est pas très connu en France, mais qui est ce qu'on appelle un stakeholder, un représentant d'intérêt très important à Bruxelles, qui pèse beaucoup puisque je crois que leur slogan c'est Consumer Voice, ce qui est quand même évidemment très important pour le personnel politique européen. Donc il y a une prise de position sur la question des grandes plateformes internet dans laquelle, pour la première fois, le BEUC soutient le principe non seulement d'un enrichissement des outils du droit de la concurrence mais aussi de la mise en place d'outils de régulation ex ante, un peu du même style que ceux qu'on a eu dans les télécoms même si, évidemment, il faut qu'ils soient d'une nature différence. Et ce shift [changement] me parait vraiment très important car le droit de la concurrence il en faut, il en faudra toujours, il en faudra dans tous les secteurs, mais il aura forcément des limites intrinsèques qui est que le droit de la concurrence est là pour corriger des défaillances dans le fonctionnement du marché. Le droit de la concurrence, structurellement, ne s'intéresse qu'à des excès, mais il ne sait pas créer des conditions positives de marché ; il ne sait pas, là où il y a un monopole, créer de la concurrence dès lors que ce monopole ne ferait pas d'abus. Et pour cela, il faut de la régulation ex ante, spécifique, comme on en a eu dans les télécoms qui nous a permis de passer de la situation de monopole à la situation concurrentielle, même si je suis conscient que certains acteurs considèrent que le marché est trop oligopolistique, mais il est quand même plus concurrentiel que si on n’avait qu'un acteur.
Je trouve très important qu'un acteur aussi important que le BEUC prenne cette position au niveau européen pour bien clarifier qu'il va falloir marcher sur deux jambes à partir de maintenant, entre un droit de la concurrence classique qui jouera toujours son rôle et qui devrait être très important dans la répression, et une régulation ex ante.
La deuxième chose que je voulais signaler en la matière, c'est le rapport6 de deux députés, madame Faure-Muntian de La République en Marche et monsieur Fasquelle des Républicains, qui viennent de publier un rapport extrêmement complet sur les enjeux concurrentiels du numérique et qui là aussi, c'est une clarification politique qui me parait extrêmement importante, considère qu'il va falloir marcher sur deux jambes et qu'on ne peut pas se satisfaire et se suffire d'un droit de la concurrence même modernisé. Quand je dis ça, ce n'est pas une mise en cause des autorités de concurrence qui font un travail formidable, Isabelle Desilva [Présidente de l’Autorité de la concurrence, NdT] le sait ; on travaille très bien ensemble dans un respect mutuel profond. C'est simplement l'outil lui-même qui ne permet pas un certain nombre de choses. Et tant mieux si le droit de la concurrence permettait de remodeler l'économie dans toutes ses dimensions, je crois que ça poserait certaines questions aux grandes entreprises et aux petites sur le fonctionnement de l'économie de marché. Donc c'est une bonne nouvelle y compris que le personnel politique, y compris le personnel de la majorité, puisse s'approprier ces enjeux. Voilà ce que je voulais indiquer. Alors ça ne répond pas précisément à la question de Netflix, mais ça me parait plutôt des bonnes nouvelles que je vois.

Benjamin Bayart : Juste pour boucler sur ce point là, je pense que le jour où on réfléchira à pourquoi on ne peut pas vendre de la vidéo comme on vend des livres, on aura fait un grand progrès. Pourquoi je ne peux pas monter un marchand de vidéos en ligne aussi facilement que je pourrais monter une librairie dans la rue en bas de chez moi ?, parce que les grossistes ne veulent pas me fournir. Du coup, je ne vois pas quelle forme de concurrence il pourrait y avoir à partir du moment où on n'a pas le droit d'ouvrir un magasin.
L'autre point. Est-ce qu'on dit deux mots sur StopCovid. Moi, je lui trouve un aspect extrêmement intéressant. Je rappelle quand même pour qu'il n'y ait pas de doute que je suis tout à fait opposé à l'existence même de ce type d'application. Pour des raisons philosophiques évidentes, je n'aime pas quand c'est l'ordinateur qui surveille l'humain et pas le contraire. Donc voilà, point. Ce point étant posé, je trouve extrêmement intéressante la façon dont ça s'est fait parce que cela a permis à du personnel ministériel qui n'en était pas forcément très conscient, de voir la mainmise des grands éditeurs de systèmes d'exploitation du mobile que sont Apple et Google, et le fait que non, on ne peut pas développer l'application comme on a envie. À chaque fois c'est formulé comme un problème de souveraineté avec « le gouvernement ne peut pas développer le logiciel dont il a envie, donc dépend de grands organismes ». Je ne suis pas d'accord. Les développeurs, qu'ils soient le gouvernement ou pas, ne peuvent pas déployer les outils qu'ils veulent et l'utilisateur ne peut pas installer le logiciel qu'il veut sur son ordinateur de poche. À mon sens c'est un problème fondamental depuis le début de l'ordinateur de poche un peu grand public il y a une dizaine d'années et je suis très content de voir que les ministres s'en sont enfin rendu compte. Ça justifie, à mon sens, pleinement le travail qui a été fait par l'ARCEP sur les terminaux, sur la liberté de choix des terminaux, sur est-ce qu'il faut réguler cette puissance là, etc., qui sont les mêmes questions que celles qu'on a soulevées à la fin des années 80 avec le logiciel libre dans l'informatique grand public.

Sébastien Soriano : Je ne peux que boire vos paroles Benjamin. Je sais qu'il y a un volet complémentaire qui vous occupe sur cette question des terminaux, qui est la réparabilité et la bidouillabilité, c'est-à-dire la partie hardware des terminaux. Est-ce sur ce sujet vous êtes confiant notamment de ce qui se prépare au niveau européen où il y a eu un certain nombre d'annonces de principe sur la réparabilité ?

Benjamin Bayart : Non, je n'ai pas confiance. Par principe, je n'ai pas confiance. Oui, c'est un vrai sujet la réparabilité, c'est un sujet de plus en plus sérieux. En fait, sur les terminaux comme sur les grandes plateformes il y a des questions fondamentales d'interopérabilité et de pouvoir qu'il faut redonner à l'utilisateur final. Ça passe par le fait de pouvoir réparer son téléphone, ça passe par le fait de pouvoir choisir le système d'exploitation qui tourne dessus, ça passe par le fait de pouvoir modifier le système d'exploitation qui tourne dessus, ça passe par le fait de pouvoir installer l'application qu'on veut et pas seulement l'application qui a été validée par Google et Apple. Pour moi, la décision de Google et Apple sur leur API typiquement, viole fondamentalement le Règlement européen sur la neutralité du Net puisque je n'ai pas le droit d'utiliser l'application de mon choix sur le terminal de mon choix. Mais c'est ma lecture du règlement qui n'est pas la lecture officielle du régulateur. J'ai une lecture que tout le monde admet comme étant plus rude.

Sébastien Soriano : OK. Merci beaucoup. Je crois qu'on est arrivé au temps de ce dialogue. Merci beaucoup Benjamin Bayart.

Benjamin Bayart : Merci de votre invitation.

Sébastien Soriano : J'ai beaucoup apprécié votre analyse sur la question de l'optimisation du réseau, de l'optimisation des applications. Je trouve que c'est vraiment une approche très intéressante et qui ne manquera d'éclairer nos travaux futurs. Merci beaucoup, vraiment un grand merci.
Merci à tous nos auditeurs, je n'ose pas dire téléspectateurs, mais à tous ceux qui nous ont suivis. Merci beaucoup. Encore un grand merci à tous les contributeurs à nos travaux. Encore un grand merci à Serge Abiteboul et à tous les services de l'ARCEP qui ont porté ces travaux et préparé cette discussion. Un grand merci à tous. Et puis il ne me reste qu'à vous souhaiter de bons échanges sur les réseaux avec un Internet qui fonctionne au mieux. Merci beaucoup. Merci à tous. Portez-vous bien.

Pages