APRIL

S'abonner à flux APRIL
L'April a pour objectifs de promouvoir et défendre le logiciel libre et ses acteurs.
Mis à jour : il y a 38 min 58 sec

Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ? - Félix Tréguer

il y a 1 heure 38 min


Titre : Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ?
Intervenant·e·s : Félix Tréguer - Edward Snowden, voix off du traducteur - Julian Assange, voix off du traducteur - Olivia Gesberg
Lieu : Émission La Grande table, France Culture
Date : 20 septembre 2019
Durée : 32 min 40
Écouter le podcast
Présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Félix Tréguer - Licence Creative Commons Attribution 3.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les révélations d'Edward Snowden ont-elles provoqué plus qu'une prise de conscience ? Que nous disent-elles de l'utopie déchue d'Internet? Félix Tréguer, co-fondateur de la Quadrature du Net, nous en parle dans L’utopie déchue(Fayard, 2019).

Transcription

Olivia Gesberg : Alors qu’Edward Snowden publie ses Mémoires vives, autobiographie de l’homme qui a tout risqué pour dénoncer la surveillance globale selon Le Seuil son éditeur, ces révélations ont-elles provoqué plus qu’une prise de conscience ? Les États-Unis ne menacent-ils plus d’être à la tête d’un système de surveillance de masse en collectant nos données ? En d’autres termes, Internet et libertés publiques, depuis Snowden qu’est-ce qui a changé?
On en parle avec notre invité, fin connaisseur du milieu, sociologue et hacktiviste comme il le dit, c’est-à-dire hacktiviste avec un « h », un peu hacker sur les bords, chercheur associé au Centre Internet et Société du CNRS, cofondateur de La Quadrature du Net1. Félix Tréguer bonjour.

Félix Tréguer : Bonjour.

Olivia Gesberg : Vous publiez aujourd’hui chez Fayard L’utopie déchue - Une contre-histoire d'Internet du XVème-XXIème siècle. Vous remontez loin !

Félix Tréguer : Oui. Je reviens à la création de l’imprimerie qui correspond aussi à la genèse de l’État moderne pour retracer un peu les stratégies de contrôle des moyens de communication et de comprendre un petit peu comment Internet a pu en faire les frais.

Olivia Gesberg : Ça a toujours fonctionné de la même manière ? Chaque fois qu’un moyen de communication est né on a tenté de le contrôler ?

Félix Tréguer : Il y a eu d’abord des appropriations subversives, contestataires, par des groupes qui contestaient les pouvoirs et puis, effectivement, la mise en place de logiques similaires à travers les époques pour réamorcer des dispositifs de surveillance, de censure, de propagande, donc on assiste, effectivement, à des mécanismes un peu similaires avec Internet.

Olivia Gesberg : Et pourtant, l’imprimerie reste une invention géniale ! Ce n’est pas vous qui publiez aujourd’hui un livre qui allez dire le contraire.

Félix Tréguer : En effet.

Olivia Gesberg : Est-ce que vous en diriez autant d’Internet ?

Félix Tréguer : Est-ce qu’Internet reste une invention géniale ? J’avoue que je suis dans une période un petit peu sceptique. Je crois qu’on a absolument besoin des livres. Je pense que c’est un moyen de communication beaucoup plus low tech comme on dirait, c’est-à-dire une technologique beaucoup plus simple, et je crois de plus en plus que dans les technologiques extrêmement complexes, Internet en est une, il y a des formes de pouvoir qui s’immiscent et des problèmes essentiels liés à ces technologies. Ce qui est sûr aussi c’est qu’Internet comme réseau et l’ordinateur qui compose ce réseau, l’ordinateur en tant que machine, restent des outils qui sont le fruit d’une époque, en fait, et on aurait pu penser une machine alternative.
Internet a constitué un réseau informatique alternatif qui portait beaucoup d’espoirs et de potentialités, mais il a été modelé par le monde saturé de rapports de domination dans lequel il a été introduit c’est pour ça que c’est aussi devenu un instrument de pouvoir, même s’il sert encore, évidemment, les mobilisations, les formes d’organisation, la libération de la parole de certains groupes. C’est l’outil dont on se saisit aujourd’hui pour porter ces revendications, porter ces discours contestataires. Peut-être qu’on aurait pu très bien le faire aussi avec des livres, avec du courrier. C’est une question que je me pose, en effet.

Olivia Gesberg : Vous parlez maintenant presque comme mon grand-père alors que vous n’avez même pas 40 ans, que vous faites partie de ceux qui y ont cru, de ceux aussi qui dominaient la technologie. Imaginez ceux qui, en plus, ne la comprennent pas et ne la manipulent pas comme vous êtes capable aussi de le faire, Félix Tréguer, dans quelle incompréhension ils doivent être aujourd’hui. En 1989, quand le 3W2 voit le jour derrière Tim Berners Lee, quel âge avez-vous ?

Félix Tréguer : Trois ans.

Olivia Gesberg : Trois ans. Donc là c’est un peu le livre de la maturité qui rassemble quand même vos illusions perdues ; on va comprendre comment elles se sont alimentées, par quoi ces déceptions ont été nourries.
Internet est une technologie pensée à ses débuts, vous l’évoquiez aussi, comme libératrice, plutôt égalitariste ou émancipatrice. Ses concepteurs n’avaient pas prévu qu’elle ferait l’objet d’une telle instrumentalisation aujourd’hui ?

Félix Tréguer : Non. C’est peut-être ce qui surprend, en fait, lorsqu’on considère un peu l’histoire des enjeux politiques autour de l’informatique depuis les années 50/60. Je crois que ce qui change et ce qui conduit à l’apparition de ces discours pleins d’espoir et pleins de projets démocratiques dans les années 80, fin des années 80 et au début des années 90 avec l’apparition d’Internet et du Web, ce qui s’est passé c’est sans doute l’apparition d’une machine particulière, une incarnation particulière de l’informatique qu’est l’ordinateur personnel qui apparaît au début des années 80 et qui, du coup, transforme complètement la perception que l’on peut avoir de cette technologie. C’est-à-dire qu’avant, l’ordinateur c’était des grosses machines qui équipaient les grandes bureaucraties publiques et privées, donc c’était une machine associée, une technologie associée à l’ordre technocratique. L’ordinateur personnel porte la potentialité de distribuer le pouvoir, d’avoir cet outil extrêmement puissant entre les mains des individus, donc effectivement avec l’horizon d’une appropriation plus égalitaire d’une technologie extrêmement puissante, d’où de grands espoirs.

Olivia Gesberg : Le pouvoir et le savoir, c’est ça ?

Félix Tréguer : En effet. C’est vrai que dans les utopies internet il y a évidemment cette idée de pouvoir construire une bibliothèque universelle, transfrontière, qui recèlerait l’ensemble des savoirs de l’humanité sous forme numérisée. Moi, ce que m’a apporté un peu à cette recherche historique c’est de comprendre à quel point il y avait, je l’avais d’ailleurs un peu perçu dans mon expérience militante, une mémoire oubliée des luttes passées et de cette critique de l’informatique.
Peut-être que si cette histoire avait été mieux connue, on aurait su avoir des discours peut-être plus mesurés quant à l’aspect politique d’Internet et aux enjeux qui se nouaient dès les années 90 autour de cette technologie. Peut-être qu’on aurait pu voir que les risques de recentralisation – peut-être qu’on pourra revenir sur la manière dont tout cela se passe –, comment les formes de recentralisation de l’architecture qui sous-tend Internet étaient porteuses de graves dangers qui avaient été très bien repérés par les groupes militants des années 60/70 qui voyaient vraiment l’informatique comme une technologie dangereuse, d’où d'ailleurs déjà des scandales à l’époque autour des questions de surveillance, d’où la création par exemple de la CNIL3 en 1978 en réponse à ces scandales. Donc je pense qu’il y a un enjeu autour. C’est ce que j’essaye un peu de faire dans ce livre, c’est un outil de débat et c’est aussi une manière de retracer une histoire complexe parce que je pense qu’on agit mieux dans le présent lorsqu’on comprend cette histoire et la manière dont elle structure nos sociétés et nos manières de penser.

Olivia Gesberg : Certains ont donc un peu, à vous entendre, quand même pêché par naïveté ou par orgueil, des militants du départ ou des concepteurs trop naïfs, vous dites « gonflés par leur dédain du vieux monde, ces hackers ont ignoré les mises en garde de ceux qui les ont précédés ». C’était qui ces hackers ?

Félix Tréguer : Je pense à des personnages dont on parle souvent, pas tant hackers et je ne suis pas non plus hacker. C’est vrai que le qualificatif d’hacktiviste avec un « h » est un peu usurpé s’agissant de moi ; je ne suis pas quelqu’un qui maîtrise grandement la technique, j’ai beaucoup fréquenté des hackers à La Quadrature du Net et ailleurs. J’allais vous parler de John Perry Barlow qui est un des paroliers du Grateful Dead, icône de la contre-culture américaine, qui a ce célèbre texte, cette célèbre déclaration en 1996, alors que les États-Unis s’apprêtent à adopter l’une des premières lois de censure d’Internet, où il s’adresse aux géants du vieux monde et il fait la Déclaration d’indépendance du cyberespace4. Il y avait effectivement cette idée d’un espace qui était, par essence, impossible à réguler, à contrôler, qui, du coup, allait renvoyer les États et les grandes organisations industrielles aux poubelles de l’histoire. C’est l’un des discours peut-être un peu emphatique, d’ailleurs John Perry Barlow qui est mort l’an dernier a mis de l’eau dans son vin à la fin de sa vie en revenant notamment sur cette déclaration un peu tonitruante qui, en même temps, a captivé .

Olivia Gesberg : Et qui a capté l’esprit d’une époque aussi, l’élan, l’utopie qui pouvait être portée à ce moment-là.

Félix Tréguer : Absolument.

Olivia Gesberg : Du coup, les porteurs de cette contre-culture n’ont pas préparé suffisamment de garde-fous pour transformer le rapport de force. Ils ont acté dès le départ qu’ils allaient prendre le pouvoir avec cet outil citoyen, au lieu de penser aux failles qu’ils étaient déjà en train de laisser ou de créer ?

Félix Tréguer : Non, je ne leur ferais pas ce grief puisque je pense qu’alors même qu’ils étaient en train de nourrir cet imaginaire utopiste de cet affranchissement des veilles lois politiques de ce monde, ils étaient déjà dans la lutte, déjà dans le combat. De fait, comme je le disais, John Perry Barlow à l’époque est déjà engagé dans un combat juridique contre cette loi de censure qui, d’ailleurs, se soldera par un succès puisqu’elle aboutit, à l’époque, à une jurisprudence très favorable à la liberté d’expression sur Internet de la part de la Cour suprême des États-Unis, donc je pense qu’on ne peut pas faire le reproche à cette génération. Moi je m’y retrouve complètement, c’est ce que je dis dans ce livre, je m’inclus dans ce groupe de gens ayant entretenu des discours utopiques et qui, face aux discours techno-critiques qui étaient déjà opposés par certains intellectuels, certains militants, même s’ils restaient, malheureusement, un peu marginaux dans le débat, on leur a expliqué que c’étaient des luddites et qu’ils voulaient revenir à la bougie et ce genre de choses. Le grief n’est pas tant sur le fait qu’il y ait une démission et qu’on a oublié de lutter, c’est sans doute certaines œillères que ça a pu provoquer et la manière dont on a écarté des débats importants sur la technologie en tant que telle.

Olivia Gesberg : Vous dites qu’on ne peut pas comprendre ce qui se joue aujourd’hui si on ne pense pas Internet aussi en termes de nouvel espace public à la manière à la fois d’Habermas, tel qu’il le définissait, ou encore de Michel Foucault. Pourquoi ? Comment comprendre cet espace que l’État va tenter de contrôler ?

Félix Tréguer : Parce que je pense effectivement que ce concept d’espace public qui renvoie à l’espace de circulation des idées, des opinions et qui façonne, du coup, un peu les représentations que l’on se fait, les idées qui nous animent, cet espace public comme le décrit très bien Habermas a joué un rôle fondamental dans l’histoire de la démocratie, dans la démocratisation de nos sociétés. Du coup, il m’a semblé que c’était un terrain intéressant pour, justement, comprendre la manière dont il a toujours été soumis à des rapports de pouvoir, à des formes d’opposition entre pouvoir et résistance. D’ailleurs c’est une dimension que Habermas5 néglige un peu dans son histoire de l’espace public, son archéologie de l’espace public plus exactement qui est, en fait, sa thèse publiée en 1962. C’est un ouvrage qui a eu beaucoup d’influence. J’ai commencé ces recherches en le relisant et j’étais frustré, en fait, de voir à quel point justement ces questions auxquelles on se heurtait déjà s’agissant d’Internet, de censure, de surveillance, l’utilisation des droits de l’homme pour résister aux politiques de contrôle mises en place par les États, comment cette histoire était en fait négligée dans la trajectoire qu’il propose. Donc j’ai été lire beaucoup d’historiens, retrouver quelques archives qui permettent de vraiment mettre en exergue la manière dont l’espace public comme espace démocratique de nos sociétés est en prise à des rapports de pouvoir qui l’éloignent un peu de l’idéal démocratique qu’il est censé servir.

Olivia Gesberg : Vous racontez aussi comment les premiers à avoir alerté sur les dangers de l’informatique pour le droit à la vie privée sont les informaticiens eux-mêmes, déjà dès les années 70 il y avait eu une affaire avec le journaliste Christopher Pyle. C’était 60 ? 70 ?

Félix Tréguer : C’est aux États-Unis dans les années 70.

Olivia Gesberg : C’était aux États-Unis, les révélations qu’il a pu faire dans le Washington Monthly sur l’existence d’un programme de surveillance aussi des citoyens américains. Et c’est encore un informaticien qui va agir, Edward Snowden6, faire ses révélations. Dans ce livre Mémoires vives qui paraît aujourd’hui, son autobiographie, Edward Snowden revient sur son parcours d’informaticien employé d’une société privée sous-traitant les données des services de renseignement américain. Il raconte aussi comment il a mis à jour cette cybersurveillance des citoyens après le 11 septembre et il parle aujourd’hui encore d’un système de surveillance généralisée.

Edward Snowden, voix off du traducteur : Tout ce que vous faites, tous ceux à qui vous parlez, tous ceux qui vous intéressent, tout ce que vous lisez de mille manières différentes, ces choses sont capturées et contrairement à ce qui se passait avant, depuis des décennies, elles sont désormais stockées pour toujours.
Et puis il y a maintenant la capacité pour n’importe qui, une organisation criminelle, votre propre gouvernement, d’envoyer un code d’exploitation sur votre téléphone pour en prendre le contrôle. Ils peuvent voir ce que vous voyez sur votre smartphone. Vous avez payé pour l’avoir, mais c’est le hacker qui le possède.

Olivia Gesberg : Edward Snowden interrogé chez lui, en Russie, par les équipes de TF1, Edward Snowden perçu comme un traître par les autorités américaines. Est-ce qu’il reste pour vous un héros, même si le mot est un peu large ?

Félix Tréguer : Je n’aime pas le héros, le mot « héros » ne me plaît pas trop non plus, mais je pense, effectivement, que c’est quelqu’un d’extrêmement courageux, qui a pris des risques immenses pour porter à la connaissance du public la réalité des pratiques contemporaines en matière de surveillance.

Olivia Gesberg : Et donc ? Il est quoi pour vous ? Un lanceur d’alerte avant tout ?

Félix Tréguer : Un lanceur d‘alerte avant tout et, encore une fois, quelqu’un de courageux et très respectable et une figure extrêmement importante dans nos combats.
C’est vrai qu’à l’époque, en 2013, lorsque Laura Poitras et Glenn Greenwald, les journalistes avec lesquels Snowden a travaillé, font les premières révélations basées sur les documents fournis par Snowden, ça a déclenché une controverse mondiale, une prise de conscience jamais vue auparavant alors même que certains éléments avaient déjà été fournis par des lanceurs d’alerte depuis le milieu des années 2000 quant aux pratiques de la NSA. Donc ça a été un moment où, même si on était déjà dans une phase un peu de désillusion je crois, avant même l’arrivée de Snowden, on assiste, au moment des révélations, à une espèce de sursaut avec une controverse immense qui se noue et des espoirs très forts que cette controverse, que cette prise de conscience puisse aboutir justement à une transformation des politiques en la matière, à l’adoption de cadres juridiques qui puissent contraindre les agences de renseignement et la manière dont se déroule la surveillance massive d’Internet. Malheureusement, ces espoirs-là aussi ont été déçus.

Olivia Gesberg : La rupture n’est pas advenue. Ce n’est même pas qu’elle n’a pas été aussi grande qu’on aurait pu l’imaginer, c’est qu’elle n’est pas advenue. Il y a eu un début de prise de conscience, mais ? Mais quoi en fait ? On n’avait pas les outils pour changer les choses après ces révélations ou la volonté ?

Félix Tréguer : On avait bien évidemment les outils. Encore une fois je crois que s’il y avait la volonté politique et si le contexte politique était plus favorable, il y aurait tout à fait moyen de respecter les libertés publiques et de construire un Internet différent. On échafaude les solutions depuis 25 ans justement en réponse aux projets de loi répressifs qui sont proposés pour contrôler cet espace de communication, donc les solutions existent. Je crois que ce qui est s’est passé c’est une flambée antiterroriste en réalité, c’est, quelques mois plus tard, à partir de 2014 la situation en Syrie et l’instrumentalisation de cette situation pour promouvoir encore et toujours des projets de lois antiterroristes extrêmement attentatoires aux libertés publiques qui, s’agissant d’Internet, vont permettre de justifier des formes de censure toujours plus poussées, automatisées, privatisées — on pourra y revenir — s’agissant de la surveillance. Les attentats de Charlie Hebdo par exemple, en janvier 2015, créent un contexte dont le gouvernement de l’époque et notamment Manuel Valls se saisissent pour imposer cette loi qui est dans les cartons depuis un moment, mais le contexte politique n’existait pas pour la faire passer, donc sur le coup de l’émotion liée aux attentats il y a un contexte qui fait que politiquement on peut légiférer et venir blanchir des pratiques de surveillance massive qui existaient depuis des années mais qui existaient dans l’illégalité puisqu’il n’y avait aucune base juridique pour les encadrer et pour assurer leur constitutionnalité.

Olivia Gesberg : Est-ce que vous diriez comme Pierre Haski, le fondateur de Rue89, que Snowden incarne un changement de paradigme déjà, c’est-à-dire le passage de la surveillance ciblée, personnalisée, à la surveillance de masse ?

Félix Tréguer : Encore une fois Snowden a permis l’émergence d’un débat, de documenter l’état de l’art en matière de surveillance massive d’Internet autour des années 2010 en réalité, puisque certains de ses documents étaient plus anciens, étaient déjà un peu anciens. Mais, en fait, je crois que cette surveillance massive, exploratoire, où l’on capte les données de tout le monde pour, ensuite, retrouver des pistes et éventuellement des suspects, cette dimension-là, ce changement d’échelle dans la surveillance se fait de manière graduelle depuis les années 80. Déjà, à la fin des années 90, il y avait eu une controverse sur les pratiques de surveillance de la NSA et des agences alliées, un début de controverse aussi sur les pratiques des services de renseignement français, c’était la controverse autour du programme Echelon, dès 98, où un rapport du Parlement européen7 est commandité, documente cette surveillance. On envisage de protester contre ces pratiques menées par les agences américaines, on se rend compte que l’Allemagne, la France et le Royaume-uni font la même chose, on leur dit que ce n’est sans doute pas légal et qu’il va falloir mieux encadrer ces choses-là et puis 2001, crise antiterroriste, et tous les projets répressifs déjà envisagés par l’État profond depuis quelques années sont mis sur le devant de la table et passent dans le droit commun.

Olivia Gesberg : Vous évoquez par la suite aux États-Unis comme en France ou ailleurs l’adoption de plusieurs lois jugées liberticides, mais vous dites que ce que vous n’êtes pas tous parvenus non plus à ralentir c’est l’emprise des GAFAM, des GAFA plus Microsoft, sur nos vies privées et la manière dont ils peuvent aussi concourir à capter toutes ces données qui vont permettre une surveillance de la part de ces acteurs privés. Vous révélez aussi des formes d’alliance entre les États et ces acteurs privés, ces seigneurs du capitalisme numérique comme vous les qualifiez. Quand est-ce que ça s’est joué ces premières alliances-là et pourquoi ?

Félix Tréguer : Je crois que si on doit s’interroger sur l’évolution majeure intervenue depuis Snowden, c’est vraiment ce rapprochement-là. C’est-à-dire qu’en 2013, l’une des premières révélations de Snowden porte justement sur la collaboration de Yahoo, Facebook, Microsoft, Google, ces grandes entreprises américaines du numérique, avec la NSA, c’est le programme PRISM8 bien documenté à l’époque. S’ensuit une controverse immédiate où ces entreprises sont accusées de collaborer activement avec les services de renseignement américain, des démentis de leur part, le déploiement de solutions de chiffrement. Elles mettent en place des groupes de lobbyistes à Washington pour juguler les pouvoirs des agences de renseignement en la matière, en fait, en réalité davantage pour assurer un peu plus de transparence sur ces programmes secrets. Donc, là où je veux en venir, c’est la mise en scène d’une résistance et d’une opposition très forte entre ces entreprises qui restent un peu influencées par un idéal hippy, contre-culturel, californien et qui, du coup, ont cette image de marque-là, qui était passablement écornée par ces révélations, donc elles cherchent à la défendre et à vraiment se distinguer de l’appareil sécuritaire américain.
Très vite, dès 2014, ce qu’on voit poindre, dès 2015 en particulier dans le contexte antiterroriste, ce sont des pressions très fortes mises sur ces entreprises pour lutter contre la propagande terroriste. En réalité, lorsqu’on regarde aussi les chiffres fournis par ces entreprises, le nombre de requêtes émanant des autorités nationales pour l’accès aux données des utilisateurs de ces boîtes a grimpé en flèche de manière quasi exponentielle, donc on a vu des rapprochements toujours plus forts. J’ai le souvenir, par exemple, de Bernard Cazeneuve, ministre de l’Intérieur français, qui voyage dans la Silicon Valley en février 2015, quelques semaines après les attentats de Paris, qui va demander une plus grande collaboration de ces acteurs en matière de lutte antiterroriste.
Tout ça a mené à des évolutions très fortes qui se traduisent aujourd’hui par la présentation de textes au niveau de l’Union européenne, au niveau français aussi. Que ce soit sur le terrorisme, sur les discours de haine, on assiste à des rapprochements toujours plus forts où, en fait, les États cooptent ces entreprises pour assurer leur politique de censure. Ce sont les débats qu’on a aujourd’hui, par exemple sur les discours de haine ou sur le terrorisme. À mon sens, on crée des dispositifs, on demande à ces entreprises de développer des outils basés sur l’intelligence artificielle pour détecter et retirer automatiquement les contenus, ce qui va à l’encontre de toutes les revendications portées par les militants d’Internet depuis les années 90 qui, justement, s’appuient sur la loi de 1880 sur la presse, demandent une protection judiciaire de la liberté d’expression y compris sur Internet, et là on a une forme de privatisation. Ce sont ces entreprises qui paramétreront leurs filtres automatiques, souvent en lien avec des prestataires et ce qu’on appelle des tâcherons du clic, employés dans des pays à bas salaire, pour assurer les politiques de modération en lien avec ces machines.
En fait on a une reconfiguration des bureaucraties dédiées à la censure qui s’accompagne d’un recul extrêmement fort des libertés publiques. Aujourd’hui on est sur les questions de discours de haine, de terrorisme et je pense qu’on peut facilement prédire une extension de ces dispositifs à tout autre type d’abus en matière de liberté d’expression, sachant déjà que la définition du terrorisme est, par essence, très large et qu’elle peut déjà couvrir tout un tas d’actions, notamment d’actions militantes, qu’on n’associe pas du tout au terrorisme normalement.

Olivia Gesberg : À vous entendre ça va aller de mal en pis, ce n’est pas forcément très réjouissant !
Avec nous le sociologue Félix Tréguer jusqu’à 13 heures 30. Il est l’auteur de L’utopie déchue - Une contre-histoire d’Internet qui vient de paraître chez Fayard.

France culture, il est 13 heures 19.

[Virgule musicale]

Voix off : France Culture – La Grande Table – Olivia Gesberg.

Olivia Gesberg : On a évoqué ensemble la figure d’Edward Snowden, à savoir comment était le monde avant ses révélations, comment il était après, ce après on va continuer à en parler avec vous. Edward Snowden qui publie actuellement dans le monde entier et notamment en France, traduite et éditée par le Seuil une autobiographie Mémoires vives où il revient sur son parcours et sa vie aujourd’hui.
Il y a une autre figure de la révélation, pourrait-on dire, c’est celle de Julien Assange. À quoi ressemblait juste avant de l’entendre, Félix Tréguer, le monde avant les révélations WikiLeaks9 ?

Félix Tréguer : Je pense qu’il y avait déjà beaucoup d’éléments qui pointaient les dérives des guerres américaines menées sous les mandats de George W. Bush, mais là encore la puissance des révélations d’Assange et de WikiLeaks avec l’aide de la lanceur d’alerte Chelsea Manning qui est aujourd’hui encore en prison.

Olivia Gesberg : Elle a été arrêtée en mai 2010, vous le racontez, à la suite de ces révélations.

Félix Tréguer : Puis libérée par Obama et de retour en prison puisqu’elle refuse de témoigner contre Julien Assange qui lui-même a été arrêté en avril dernier.

Olivia Gesberg : Et qui est toujours réfugié ?

Olivia Gesberg : Non, justement, il a été rattrapé par la police britannique. Il était déjà en prison depuis sept ans, de fait, dans l’ambassade de l’Équateur de Londres et désormais il est dans une cellule d’une prison britannique.
Donc le monde d’avant WikiLeaks. WikiLeaks est un projet de transparence radicale qui vient mettre à mal le secret d’État qui, là encore, est complètement ancré dans la tradition démocratique et libérale au sens du libéralisme politique, puisque le secret d’État est assez consubstantiellement contraire à l’idéal démocratique, à l’idéal de délibération collective.
Assange, dès 2006, théorise une entreprise de journalisme et de transparence radicale, qui se matérialise avec WikiLeaks et qui déboule sur la scène géopolitique de manière fracassante en 2010 avec les fuites massives orchestrées, permises par Chelsea Manning, sur les guerres américaines et c’est notamment d’abord la vidéo qui montre l’assassinat de civils irakiens et de journalistes de Reuters en Irak, à Bagdad, par un hélicoptère et des soldats américains, puis les câbles diplomatiques sur la guerre afghane et irakienne et enfin les câbles diplomatiques, en décembre 2010, qui, là encore, révèlent les bruits de couloir et les négociations d’arrière chambre de la diplomatie mondiale.

Olivia Gesberg : Devant la caméra d’Arte, quand il témoigne et se raconte, il donne en tout cas le sentiment qu’il avait l’espoir que ces révélations allaient changer quelque chose. Écoutez.

Julien Assange, voix off du traducteur : Quand nous avons révélé que les trois dernières présidences ont été totalement infiltrées par les États-Unis, que les présidents ont été personnellement écoutés, quelle aurait dû être la réaction de la DGSE et des autres services secrets français ? Ils auraient dû immédiatement venir nous voir et nous demander « en savez-vous plus ? Comment avons-nous échoué à protéger le président contre l’espionnage américain », mais ce n’est pas arrivé. Pourquoi ? Je ne pense pas que les services de renseignement français soient des idiots. Ils savaient que c’était la première chose à faire, mais ils craignaient d’affronter les Américains. Ces préoccupations étaient tellement puissantes qu’ils ont préféré passer pour des victimes plutôt que de comprendre ce qui s’était passé.

Olivia Gesberg : L’espionnage par une puissance étrangère est-il terminé ? Est-ce qu’on peut dire que ce qu’espérait Julien Assange est arrivé ?

Félix Tréguer : Non, évidemment pas, ces choses-là se poursuivent et c’est de l’ordre des relations interétatiques depuis très longtemps. Il n’y a pas vraiment de raison que ça change. Ce que montre justement, sans doute, cette espèce d’indifférence opposée par l’État français à ces révélations, c’est le fait que ce sont des choses qui sont malgré tout complètement acceptées et normalisées dans les relations diplomatiques. Ces formes de surveillance c’est plus gênant lorsque ça concerne des populations civiles, des groupements militants qui militent pour les droits de l’homme.
Je pense que non, évidemment que ces formes d’espionnage continuent.

Olivia Gesberg : Publiquement on a l’impression qu’il y a quand même une prise de conscience qui a été réalisée, que des lois, des règlements ont été adoptés pour tenter de protéger notamment nos données personnelles. On pense au Règlement européen, au RGPD10, qui a mis en place un système de conditions générales pour les utilisateurs. Est-ce que tout ça est opérant pour vous ?

Félix Tréguer : Je pense que le combat juridique reste pertinent et indispensable. C’est notamment le champ d’action de La Quadrature du Net et de beaucoup d’autres associations de défense des droits de l’homme. Il est important d’occuper ce terrain et je crois qu’on peut obtenir certaines petites victoires.
Malgré tout, je suis forcé de constater dans la longue histoire de l’informatique, si on remonte justement aux années 70 et à la création de la CNIL, qui déjà était censée permettre de juguler les atteintes massives à la vie privée rendues plus faciles par l’informatique, qu’historiquement, en fait, ces modes d’action trouvent leurs limites. Dans le contexte historique qui est le nôtre, ces limites doivent nous amener à envisager d’autres modes d’action, d’autres modes de contestation, pas pour les abandonner, mais il faut les accompagner d’autres formes d’opposition, de refus plus peut-être radical des formes d’informatisation qui conduisent à rendre les rapports de pouvoir encore plus difficiles à contester, à transformer.

Olivia Gesberg : Et sur ce point-là vous semblez être sur la même ligne qu’Edward Snowden interrogé cette fois par France Inter, c’était lundi.

Edward Snowden, voix off du traducteur : De toute façon vous n’avez pas le choix, vous devez utiliser Google, Facebook, tout cela, vous devez avoir un téléphone portable. Tout ça fonctionne contre vous et ce n’est pas par choix. Vous n’exprimez pas votre consentement éclairé et même lorsque vous avez cliqué sur un bouton « Je suis d’accord » pour avoir un cookie qui va vous suivre ; vous savez, quand vous allez sur un service il faut cliquer sur un document et si vous voulez l’ouvrir pour le lire ça fait 600 pages ; personne ne le lit ! Ça ce n’est pas du consentement éclairé et ce n’est pas une excuse. Ce sont véritablement des choses contre lesquelles il faut lutter. Ce qu’il faut changer ce n’est pas les entreprises, ce n’est pas ce téléphone portable, ce n’est pas ce logiciel. Il faut changer le système et ça se produit à tous les niveaux : sur le plan social, sur le plan commercial et sur le plan juridique, sur le plan gouvernemental.

Olivia Gesberg : Comment agir Félix Tréguer quand on n’a pas le choix ? Changer le système, vous semblez dire à peu près pareil dans ce livre qui ne veut pas être un livre de résignation puisque vous appelez à ne pas battre sa coulpe mais à bien identifier nos erreurs et faire en sorte qu’elles ne se reproduisent pas.

Félix Tréguer : Le système numérique, le macro-système informatique dans lequel on vit et qui occupe une place toujours plus importante dans nos sociétés, au-delà même de l’espace public médiatique et de la communication médiatique, c’est l’ensemble de nos sociétés, de nos bureaucraties qui migre vers ces technologies. Effectivement, on se retrouve un petit peu dans une contradiction en apparence insurmontable lorsqu’on conteste ce système et son orientation. Un peu de la même manière que des syndicalistes ou des salariés, des travailleurs engagés dans une lutte dans leur usine contre le capitalisme continuent à vivre dans une société capitaliste et, forcément, ça implique des formes de contradiction. On est obligé de vivre dans un monde que l’on refuse.
Cela étant, je pense justement que l’enjeu aujourd’hui c’est de se rendre compte de la nécessité d’une désescalade technologique, d’affirmer, comme je disais, un refus vis-à-vis des trajectoires technologiques et numériques dominantes, que ce soient des technologies comme la reconnaissance faciale, que ce soit la dématérialisation à outrance des bureaucraties, des services publics avec les conséquences très concrètes dans la vie des gens que cela peut avoir. Ça peut aussi passer par la prise de conscience individuelle des formes d’aliénation liées à l’addiction qu’implique notre rapport aux écrans.
Je pense que, du coup, il y a une prise de conscience collective et la nécessité de désirer une vie avec moins d’informatique, avec moins de technologie de manière générale et ça, c’est un désir qui reste à construire. Cela étant, il y a aussi beaucoup une prise de conscience croissante, je crois, et des luttes de plus en plus nourries sur tout un tas de fronts, que ce soit sur l’informatique dans l‘agriculture et le puçage des animaux, que ce soit l’informatisation des écoles et de l’Éducation nationale tout entière, que ce soit l’arrivée de ces technologies de contrôle social, de police prédictive, de reconnaissance faciale dans nos villes, au-delà d’Internet, c’est pour donner plein d’exemples de ces multiples fronts.
L’un des enjeux aujourd’hui, et je pense que ça renvoie aussi à des enjeux stratégiques très forts dans les mouvements écologistes qui s’affirment aujourd’hui avec force, c'est la nécessité de bâtir des ponts et de construire un refus. C’est en articulant ces nouveaux modes d’action peut-être plus radicaux, en fait ils existaient depuis longtemps mais en tout cas il faut les réinvestir, que l’on saura mieux contester le système, construire et renouer avec l’horizon démocratique.

Olivia Gesberg : Merci beaucoup à vous Félix Tréguer. L’utopie déchue - Une contre-histoire d’Internet vient de paraître chez Fayard.
Merci aussi à toute l’équipe de La Grande Table. À la réalisation aujourd’hui c’était Gilles Blanchard…

Revue de presse de l'April pour la semaine 32 de l'année 2020

lun, 08/10/2020 - 22:53

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[lesoir.be] Du code informatique stocké bien au frais dans l’Arctique (¤)

✍ Thomas Casavecchia, le dimanche 9 août 2020.

Il s’agit d’une véritable bibliothèque d’Alexandrie : les codes sources du système d’exploitation Linux, le code du programme qui a permis de capturer la première image d’un trou noir, les codes permettant de faire fonctionner le bitcoin, ou encore ceux de MS-DOS, l’ancêtre de Windows qui permettait de faire fonctionner les disquettes et que les moins de vingt ans ne peuvent pas connaître. Tous font partie des 21 téraoctets de codes qui sont stockés sur 186 bobines de microfilm. Github promet que ces derniers resteront accessibles durant les 1.000 prochaines années. De quoi enthousiasmer les futurs archéologues.

[Libération] Mort du philosophe Bernard Stiegler, technicien de la pensée et penseur de la technique

✍ Sonya Faure et Simon Blin, le vendredi 7 août 2020.

Le philosophe engagé à gauche est mort à l’âge de 68 ans. Condamné en 1978 pour plusieurs braquages de banques, il avait étudié en prison. Il est l’auteur d’une œuvre hybride et pionnière sur la technique et le numérique.

Et aussi: [ZDNet France] Open Source Security Foundation: regrouper pour mieux sécuriser

✍ Steven J. Vaughan-Nichols, le mardi 4 août 2020.

Une nouvelle fondation vient rassembler les différents efforts de la communauté visant à mieux sécuriser les programmes Open Source.

Et aussi:

Réunion du groupe de travail Sensibilisation de l'April jeudi 20 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

ven, 08/07/2020 - 15:32
Start: 20 Août 2020 - 17:15End: 20 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 20 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Réunion du groupe de travail Sensibilisation de l'April jeudi 13 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

mar, 08/04/2020 - 14:57
Start: 13 Août 2020 - 17:15End: 13 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 13 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Réunion du groupe de travail Sensibilisation de l'April jeudi 6 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

mar, 08/04/2020 - 14:54
Start: 6 Août 2020 - 17:15End: 6 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas). Dans la période actuelle, les réunions ont lieu à distance.

La prochaine réunion du groupe Sensibilisation aura lieu jeudi 6 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Revue de presse de l'April pour la semaine 31 de l'année 2020

lun, 08/03/2020 - 20:45

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[LeMagIT] Souveraineté numérique et «Guerre Froide» technologique: l’avenir du cloud s’annonce orageux

✍ Philippe Ducellier, le vendredi 31 juillet 2020.

Pour la banque d’investissement Klecha & Co, au regard du contexte de guerre économique où l’Europe est un terrain de jeu possible pour les États-Unis et la Chine, la cloudification massive ira de pair avec la question de la souveraineté des données et de l’indépendance technologique.

[Le Monde.fr] Après la crise, les communs numériques en quête de reconnaissance (¤)

✍ Claire Legros, le mardi 28 juillet 2020.

«Le retour des communs» (2/6). Pendant le confinement, les données et outils ouverts ont joué un rôle vital et prouvé leur pertinence en temps de crise. La séquence a aussi mis en lumière la nécessaire articulation entre ces communs numériques et les secteurs public et privé.

[Clubic.com] PeerTube, le projet d'alternative à YouTube décentralisée, avance bien!

✍ Benjamin Bruel, le lundi 27 juillet 2020.

Deux ans après le financement participatif qui avait conduit à sa naissance, PeerTube, l’alternative à YouTube française et libre, continue gentiment de rouler sa bosse. Framasoft, l’association pour le développement de logiciels libres à l’origine du projet, dévoile la version 2.3 de PeerTube.

Faut-il avoir peur des algorithmes - Aurélie Jean - Jean-François Bonnefon - Grand bien vous fasse

jeu, 07/30/2020 - 16:50


Titre : Faut-il avoir peur des algorithmes ?
Intervenant·e·s : Aurélie Jean - Jean-François Bonnefon - Ali Rebeihi
Lieu : Émission Grand bien vous fasse, France Inter
Date : février 2020
Durée : 45 min 20 [NB : la chronique « Pas son genre » de Giulia Foïs n'est pas transcrite]
Écouter le podcast sur le site de l'émission
Licence de la transcription : Verbatim
Illustration : Voiture autonome, Séquence voiture autonome - Licence Créative Commons CC BY-NC-ND 3.0 FR robot24.fr-2014
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

On s’intéresse notamment aux dilemmes moraux que pose l’intelligence artificielle quand par exemple les voitures sans conducteur décideront de sauver ou non un individu sur leur chemin. Vous verrez que les algorithmes posent des questions éthiques vertigineuses.

Transcription

Ali Rebeihi : Bonjour à tous. Soyez les bienvenus en direct ou en podcast. Vous le verrez ce matin, un algorithme est une suite d’opérations ou d’instructions qui permettent de résoudre un problème ou d’obtenir un résultat.
Les algorithmes numériques nous accompagnent dans tous les domaines de notre existence quand nous utilisons, par exemple, nos smartphones ou nos ordinateurs ? Faut-il vraiment avoir peur des algorithmes numériques ? Quels dangers réels représentent ces algorithmes dont on ne peut plus se passer ?
Le vrai danger c’est peut-être les biais algorithmiques, l’équivalent des biais cognitifs pour les humains. Des biais algorithmiques qui peuvent conduire à des erreurs et à des discriminations quand, par exemple, les tout premiers outils de reconnaissance faciale ne prenaient pas en compte les peaux noires.
On s’intéressera également aux vertigineux dilemmes moraux que posent les algorithmes des voitures sans conducteur qui devront privilégier soit la sécurité des passagers soit celle des piétons.

Pour nous éclairer ce matin, l’entrepreneur Aurélie Jean et le chercheur Jean-François Bonnefon.
Avez-vous peur des algorithmes ou alors pas du tout ? 01 45 24 7000, sans oublier la page Facebook de Grand bien vous fasse et l’appli France Inter.

Vers 11 heures moins 25 vous retrouverez la chronique « Pas son genre » de Giulia Foïs.
Bienvenue dans Grand bien vous fasse, la vie quotidienne, mode d’emploi.

Voix off : France Inter, Grand bien vous fasse, Ali Rebeihi.

Ali Rebeihi : Bonjour Aurélie Jean.

Aurélie Jean : Bonjour Ali.

Ali Rebeihi : Vous êtes docteure en sciences et chef d’entreprise, ancienne élève de Normale Sup, de Mines Paris Tech, chercheuse au MIT aux États-Unis.

Aurélie Jean : Ancienne chercheuse.

Ali Rebeihi : Ancienne chercheuse mais tout de même. Vous publiez aux éditions de L’observatoire De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, ce titre fait évidemment référence à Lewis Carroll, De l’autre côté du miroir, c’était la suite de Alice au pays des merveilles

Aurélie Jean : Oui. Absolument c’est une belle référence à Lewis Carroll et je parle d’ailleurs dans le livre de cette œuvre qui m’est très chère.

Ali Rebeihi : Pourquoi ce titre ?

Aurélie Jean : Déjà parce que c’était dans le concept, l’ADN de la collection De facto créée par Gaspard Koenig au sein de L’observatoire et c’est vrai que c’est intéressant parce que le meilleur moyen pour faire comprendre les choses aux gens c’est de les emmener de l’autre côté de l’objet qui les sépare de ce monde et en l’occurrence, dans mon cas, c’était le monde des algorithmes et c’est une manière assez douce pour les amener gentiment, justement, vers ce monde dont ils ont peur.

Ali Rebeihi : Bonjour Jean-François Bonnefon.

Jean-François Bonnefon : Bonjour.

Ali Rebeihi : Vous êtes docteur en psychologie cognitive, directeur de recherche à la fameuse Toulouse School of Economics, vous êtes médaille de bronze du CNRS et vous publiez chez HumenSciences La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?. Votre titre se réfère bien évidemment au célèbre film de Hitchcock, L’Homme qui en savait trop.

Jean-François Bonnefon : C’est ça.

Ali Rebeihi : Il sera question de psychologie morale, avec vous, dans la seconde partie de l’émission. Expliquez-nous ce qu’est la psychologie morale en quelques mots.

Jean-François Bonnefon : La psychologie morale c’est comprendre comment les gens décident de ce qui est bien ou ce qui est mal. C’est très différent, par exemple, de la philosophie morale qui essaie de déterminer ce qui est bien et ce qui est mal. La psychologie morale c’est une description de comment les gens arrivent à ce genre de jugement.

Ali Rebeihi : Comment expliquer ce qu’est un algorithme à un enfant de dix ans, Aurélie Jean ? J’ai parfois utilisé, dans cette émission, l’exemple de la recette de cuisine pour expliquer ce qu’est un algorithme et je mérite un gros pan sur le bec, Aurélie Jean.

Aurélie Jean : Non parce qu’en fait, comme vous l’avez très bien dit, vous avez donné un exemple. La recette de cuisine est un algorithme mais dire que l’algorithme est une recette cuisine, je trouve que c’est un petit peu…

Ali Rebeihi : Simpliste.

Aurélie Jean : Oui. En fait c’est trop simpliste parce qu’après, du coup, on a du mal à comprendre des concepts un peu plus abstraits qui sont propres à l’algorithmique. Ce que je dis c’est que la recette de cuisine est un algorithme, mais que l’algorithme n’est pas une recette de cuisine.

Ali Rebeihi : Alors c’est quoi un algorithme ?

Aurélie Jean : C’est ce que vous avez dit en introduction et c’est très bien dit, c’est-à-dire que c’est un ensemble d’opérations à exécuter selon une certaine logique pour résoudre un problème, répondre à une question, obtenir un résultat par rapport à un problème donné.

Ali Rebeihi : Vous comprenez que ça fasse peur les algorithmes ? Le mot algorithme ?

Aurélie Jean : Oui, le mot fait peur parce qu’en fait on l’associe à tous les scandales qu’on a pu entendre, voir, sur lesquels on a pu lire ces deux dernières années. C’est vrai que dès qu’on parle d’algorithmique et des algorithmes on les personnifie, c’est-à-dire qu’on leur attribue des caractères anthropomorphiques : on parle d’algorithmes sexistes, injustes, discriminatoires, racistes. Ce sont des choses qui font relativement peur, donc il faut sortir de cette passion pour raisonner sur les débats actuels.

Ali Rebeihi : Pouvez-vous nous donner des exemples d’algorithmes numériques utilisés dans la vie de tous les jours, des algorithmes présents dans notre vie quotidienne, du matin au soir, toute l’année, qui nous accompagneront certainement jusqu’à notre dernier souffle.

Aurélie Jean : Il y en a plein, la liste est longue. Par exemple, quand vous décidez d’utiliser une application qui va vous définir le chemin le plus optimal pour aller d’un point à un autre, que ce soit dans les transports en commun ou à pied ou en voiture, ce sont trois modes différents, ça dépend des outils. Il y a des algorithmes qui vont regarder le chemin le plus court, d’autres algorithmes qui vont prendre en considération le trafic des voitures et d’autres algorithmes qui vont aussi prendre en considération le trafic des transports en commun, à savoir lorsqu’il y a des grèves ou des accidents. Donc c’est un exemple parmi tant d’autres.

Ali Rebeihi : Les applis de rencontre aussi ?

Aurélie Jean : Les applis de rencontre aussi, plein de choses. Quand vous allez, par exemple, sur un site pour aller acheter un produit en particulier il y a des algorithmes, entre autres, de captologie ou des algorithmes d’optimisation pour optimiser votre « parcours client », comme on dit, des choses comme ça.

Ali Rebeihi : Quelle est l’origine du mot « algorithme », qui s’écrit sans « y ». Il faut partir du côté de la Perse.

Aurélie Jean : Oui, exactement, vous avez très bien dit. Même si aujourd’hui on parle d’algorithmes numériques qui sont censés être écrits, codés dans un programme informatique pour tourner sur un ordinateur, traditionnellement, historiquement l’algorithme est fait pour être écrit à la main et résolu à la main. Le mot « algorithme » vient du mot latin Algoritmi qui est, en fait, le nom latin du grand mathématicien perse Al-Khwârizmî dont le nom provient aussi, en fait, du mot algèbre. En fait, le concept de science algorithmique est même bien plus ancien, au 3e siècle avant notre ère : Al-Khwârizmî c’est 9e siècle de notre ère. C’est aussi 3e siècle avant notre ère avec les cours de logique d‘Euclide et son livre, son œuvre les Éléments qui donne des processus de raisonnement logique pour résoudre des problèmes et entre autre démontrer des théorèmes.

Ali Rebeihi : Je redis le nom de ce mathématicien, Muhammad Ibn Mūsā al-Khuwārizmī, et son nom a été latinisé en Algoritmi qui donnera donc algorithme.
Vous, votre premier algorithme vous l’écrivez à l’âge de 19 ans, Aurélie Jean ?

Aurélie Jean : Oui. C’est intéressant parce que je le fais écrire dans le livre par les gens. C’est une belle manière de démystifier la discipline et de leur montrer que c’est possible.
Moi c’est à l’âge de 19 ans. Je faisais des cours de maths et de physique à Sorbonne Universités et j’ai décidé de prendre un cours optionnel de sciences informatiques, d’abord par une frustration de ne pas comprendre ce que sont les sciences informatiques, je ne sais pas si c’est la meilleure motivation mais c’est un driver comme un autre. En fait, durant ce cours, j’ai passé mes six premiers mois avec un papier et un crayon à écrire des algorithmes. Ça a été la découverte de cette science. Mon premier algorithme, dont je parle dans le livre et que les gens peuvent écrire avec moi, c’est un algorithme assez simple en soi.

Ali Rebeihi : Je l’ai compris !

Aurélie Jean : Vous l’avez compris ? C’est bien. C’est un algorithme pour trier dans l’ordre croissant des nombres entiers, des nombres naturels dans un tableau. C’est très rigolo. Au début, quand j’explique, je dis « tout le monde sait résoudre ce problème, c’est facile, maintenant c’est : est-ce que vous allez pouvoir le résoudre le plus rapidement possible ? » Et c’est là où la science algorithmique intervient.

Ali Rebeihi : Qu’est-ce qui vous fascine dans la science algorithmique ?

Aurélie Jean : Il y a plusieurs choses. Déjà j’adore le caractère mathématique appliquée de la science algorithmique. Ce que j’aime beaucoup, en fait, c’est que ça permet de résoudre des problèmes concrets par une voie optimale en termes de nombres d’opérations à exécuter. C’est vraiment le côté résoudre des problèmes concrets.

Ali Rebeihi : Un exemple ?

Aurélie Jean : Typiquement, le cas du tableau est un exemple parce que c’est vrai qu’on passe sa vie à trier des choses dans les problèmes aujourd’hui. Par exemple ce que j’ai fait dans ma thèse ou même plus tard dans ma recherche quand j’ai travaillé sur le traumatisme crânien, c’est grâce à des modèles mathématiques que j’ai traduit sous forme algorithmique pour faire des simulations, que j’ai pu établir une loi qui a estimé, qui estime toujours d’ailleurs, les risques d’un humain d’avoir un traumatisme crânien par rapport à l’énergie, au type de choc qu’il ou elle a pu recevoir à la tête. Je trouve que c’est quand même fascinant d’arriver à résoudre un problème concret. Après c’est un ensemble, ce n’est pas un algorithme, il y a plein d’algorithmes dans ce modèle, mais c’est quand même dingue de voir qu’on arrive à résoudre des problèmes concrets en passant par le virtuel parce que, quelque part, l’algorithmique, en tout cas numérique, c’est aussi passer par la virtualisation des phénomènes, de l’autre côté de la machine, dans la machine, en l’occurrence dans l’ordinateur.

Ali Rebeihi : Jean-François Bonnefon, on peut peut-être avoir peur des algorithmes des voitures sans conducteur ? C’est toute la question de votre livre.

Jean-François Bonnefon : Oui, parce que l’algorithme d’une voiture sans conducteur c’est vraiment un cas extrême de décision automatique, en partie à cause de ses enjeux puisque là on parle de l’intégrité physique des passagers ou des gens qui sont sur la route donc de conséquences qui sont assez graves potentiellement. Et aussi parce que, en général, quand il y a une décision qui est prise par un algorithme, c’est plutôt une suggestion, surtout quand il y a des conséquences potentiellement graves, il y a un humain qui va, à un moment, être dans la boucle, valider la décision, l’examiner.
Les voitures sans conducteur, la prise de décision automatique se produit à un tel rythme qu’on est dans un cas où il est difficile de mettre un humain dans la boucle à chaque fois.

Ali Rebeihi : « Faut-il avoir peur des algorithmes ? », c’est le titre de cette émission, mais n’oublions pas leurs bienfaits, notamment dans le domaine de la recherche médicale. Aurélie Jean.

Aurélie Jean : Oui, pas que dans la recherche, même dans la pratique médicale clinique aujourd’hui. Les algorithmes interviennent par exemple pour faire des tests biologiques où on va pouvoir analyser des prélèvements de façon automatique, mais ça fait très longtemps qu’on est capable de faire ça. Par exemple, on parle beaucoup des algorithmes qui vont aller détecter, pré-détecter des tumeurs sur des radiographies. Ça peut être beaucoup de choses, des algorithmes qui vont peut-être optimiser certains diagnostics, il y a plein de choses qui se font, mais, comme le dit très bien Jean-François, il faut le redire, l’algorithme fournit une suggestion. La décision nous appartient.

Ali Rebeihi : Ça, on l’oublie souvent !

Aurélie Jean : On l’oublie souvent et je trouve que c’est intéressant de le dire parce que ça nous permet de nous positionner par rapport à ces algorithmes qui nous donnent des suggestions. Et je le dis d’autant plus que dans le cas de la voiture autonome, comme vous l’avez dit, c’est un peu une décision unilatérale, mais c’est vrai qu’il y a beaucoup de choses où on a l’impression qu’on n’a pas le choix alors qu’en fait on l’a. Par exemple lorsque vous parliez des applications de rencontre, l’application de rencontre vous donne une suggestion d’individu, ça ne veut pas dire que c’est la bonne personne !

Ali Rebeihi : Est-ce que nous sommes atteints d’anti-algorithmie primaire, dans le grand public, dans les médias ?

Aurélie Jean : Je n’espère pas sinon mon métier est en danger ! Plus sérieusement, je pense que les gens ont peur de cette discipline parce qu’ils ne la comprennent pas et parce que, aussi, il y a beaucoup de gens qui créent des fantasmes autour de ces entités mathématiques : on imagine que l’algorithme va tout remplacer, l’algorithme va pouvoir avoir des émotions, va pouvoir avoir une âme. Non, ce n’est pas possible, c’est impossible. Le vrai discours est un peu moins sexy, peut-être, mais en tout cas vrai et beaucoup plus rationnel.

Ali Rebeihi : Nous avons peur parce que nous n’avons pas la culture scientifique suffisante, peut-être, dans le grand public, pour comprendre tous ces grands enjeux ?

Aurélie Jean : Oui. C’est le cas de beaucoup de sujets, en fait, ce n’est pas propre qu'aux algorithmes. Lorsqu’on a commencé à travailler sur la génétique, par exemple, ça a créé beaucoup de fantasmes et ça a fait très peur, alors qu’aujourd’hui on fait beaucoup de choses en génétique et ça nous parait normal. Je pense que c’est vraiment essayer de démystifier, essayer aussi de montrer les vraies menaces. Vous parliez de biais algorithmiques, c’est une vraie menace que les gens commencent à connaître, mais en fait ça fait longtemps, très longtemps qu’on travaille dessus.

Ali Rebeihi : Expliquez en deux mots parce qu’on va y revenir largement dans l’émission. Qu’est-ce qu’un biais algorithmique ?

Aurélie Jean : En fait, comme vous l’avez très bien dit, on a tous des biais cognitifs dus à notre histoire, notre langue, notre religion, peu importe, notre culture, et typiquement on a tendance à introduire des biais cognitifs dans les choses qu’on développe. Ça peut être un texte, ça peut être un produit tangible, donc ça peut être aussi un algorithme. En fait, on transfère nos propres biais cognitifs aux algorithmes et ça devient des biais algorithmiques qui ont comme conséquence, comme vous l’avez très bien dit, par exemple d’écarter une partie de la population de l’usage de l’outil et c’est le cas des premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les peaux noires.

Ali Rebeihi : Je m’adresse au docteur en psychologie cognitive. C’est quoi un biais cognitif ? Donnez-nous un exemple de biais cognitif.

Jean-François Bonnefon : Par exemple, on peut avoir le biais de ne chercher que des informations qui nous confortent dans ce que nous croyons déjà et éviter des informations qui nous mettent en doute. Un biais cognitif c’est un processus psychologique qui nous pousse toujours dans la même direction pour des résultats qui sont suboptimaux.

Ali Rebeihi : Avez-vous peur des algorithmes ou alors pas du tout ? N’hésitez pas à nous appeler, à poser toutes vos questions au 01 45 24 7000.
Alexia Rivière, Julia Macarez et Clément Martin m’ont aidé à préparer cette émission réalisée par Claire Destacamp. Belle journée à l’écoute de France Inter.

Pause musicale : Aline par Christophe.

Ali Rebeihi : Christophe interprétait em>Aline.

Voix off : « Je pense avoir trouvé l’algorithme pour se faire des amis. – Arrête il n’y a pas d’algo pour se faire des amis. – Allô ! Tu as peut-être le temps de boire une boisson chaude, les plus appréciées sont le café ou le chocolat. »
Ali Rebeihi sur France Inter.

Ali Rebeihi : 10 heures 21. Faut-il avoir peur des algorithmes ?, c’est notre thème ce matin avec la docteure en sciences Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 24 7000.
Je vous verrais bien, Aurélie Jean, dans la bande de The Big Bang Theory !

Aurélie Jean : Oui, carrément. Mais je me reconnais pas mal sur le côté un peu nerdy, j’avoue.

Ali Rebeihi : Un peu geek.

Aurélie Jean : Oui.

Ali Rebeihi : La mathématicienne Cathy O'Neil1, qui est venue dans cette émission, nous a dit que les algorithmes ne sont pas nécessairement équitables car c’est la personne qui les conçoit qui définit leur fonctionnement et leurs résultats. Aurélie Jean, rappelez-nous ce qu’est un biais algorithmique pour ceux qui nous prennent en route. C’est ça un biais algorithmique ? C’est ce que nous dit Cathy O'Neil ?

Aurélie Jean : En fait, ce que dit Cathy O'Neil, c’est qu’on a tendance à croire qu’un algorithme est objectif, dû à l’impartialité des mathématiques, mais c’est oublier, en fait, que l’algorithme est développé par un humain, par des humains, que ce soit dans les critères explicitement définis par l'humain, mais ça peut aussi être le choix des données sur lequel le calibrer ou l’entraîner dans le cas de critères implicites. C’est vrai, pour reprendre ce qu’est un biais algorithmique, que nous on a des biais cognitifs, on va les transférer à l’algorithme qu’on écrit et, comme l’a dit Jean-François, on peut, en fait, sans s’en rendre compte, écarter des gens, ne pas penser à certaines données, à certains individus, à certains scénarios lorsqu’on écrit l’algorithme.

Ali Rebeihi : On va prendre des exemples concrets. Vous vous rendez compte de l’importance des biais algorithmiques quand un chercheur vous demande d’utiliser les algorithmes pour comprendre la croissance du muscle cardiaque en laboratoire. Racontez-nous.

Aurélie Jean : C’était en 2009, exactement, j’étais à l’université d’État de Pennsylvanie où j’ai commencé ma recherche avec le professeur Joshua Entsminger qui est maintenant un très bon ami à moi. Je développais des modèles et des algos pour comprendre la croissance d’un muscle cardiaque en laboratoire, pour aller remplacer un muscle malade après un infarctus. C’est passionnant, ça s’appelle l’ingénierie des tissus pour les gens qui veulent savoir. Je l’écris dans le bouquin, mon professeur me dit : « Aurélie, tu ne peux pas faire un modèle là-dessus si tu n’as jamais disséqué un cœur et compris comment ça fonctionne. » Du coup on part tous les deux disséquer un cœur, c’est génial et, à un moment donné, durant le processus, il me dit : « Au fait, est-ce que c’est possible d’avoir des biais dans des algos ? » J’ai commencé à rire en lui disant « eh bien non, ce sont des maths, il ne peut pas y avoir de biais ! » Il me dit : « Mais tu sais, moi, quand je fais mes études cliniques, il y a des biais. » Du coup on commence à partir sur cette conversation et c’est là, en fait, où j’ai entendu le mot « biais algorithmique » et que j’ai compris que c’était possible de mettre des biais dans mes algos pour plein de raisons. Déjà parce que, comme me le disait mon professeur : « Tu vois le monde avec ton propre angle. Tu te bases sur des données dans des papiers scientifiques médicaux qui sont peut-être biaisées, sur des études biaisées, sur des expérimentations biaisées, donc il y a plein de manières de biaiser in fine ton algorithme, donc il faut avoir un œil critique comme le ferait un médecin ou un chercheur en médecine sur ses expériences. »

Ali Rebeihi : Le biais algorithmique peut provenir également de la collecte des données. Prenons un autre exemple : lors de votre simulation numérique des traumatismes crâniens – vous travaillez sur ce domaine-là – vous collectez des données sur les dimensions moyennes de têtes humaines et inconsciemment votre standard c’est quoi ?

Aurélie Jean : En fait c’est moi. Pas complètement parce que j’étais assez fière, à l’époque j’étais au MIT et je devais rechercher les données morphologiques, comme vous l’avez dit, du crâne humain, donc j’étais très fière de moi parce que, en plus je suis assez féministe, j’ai cherché des femmes, des hommes, des plus vieux, des moins vieux, des jeunes, des enfants, des Afro-Américains, des Blancs, des gens d’Amérique du Sud, j’étais hyper-fière de moi en disant « je sais faire, je sais prendre en compte la diversité étant moi-même issue d’une minorité dans mon milieu ». En fait, mon directeur de recherche, le professeur Raul Radovitzky, me dit : « Aurélie, tu as oublié une population ». Je dis : « Mais non, pas du tout ! » Il me fait : « Si, si, les populations asiatiques ont des morphologies très différentes — et je dis — C’est marrant parce que moi je pensais qu’ils avaient des morphologies comme les nôtres, sous-entendu caucasiens », c’est quand même dingue !

Ali Rebeihi : Exactement, l’homme blanc occidental.

Aurélie Jean : Il me dit : « Mais non, pas du tout, il faut que tu les considères aussi. »

Ali Rebeihi : Et vous rectifiez le tir.

Aurélie Jean : Et je rectifie le tir. Après, savoir si ça aurait eu une influence sur mon algorithme ou la réponse de mon algorithme, je ne sais pas. En tout cas on a considéré ça quand on a ensuite écrit l’algorithme et le modèle pour justement essayer de calibrer la loi sur des données morphologiques de crânes humains qui sont une protection naturelle pour notre cerveau. C’est vrai que je suis plutôt contente et j’en parle dans le livre, parce que j’ai fait une erreur, j’ai été rattrapée au vol par quelqu’un qui avait un meilleur background que moi dans le milieu médical. Et, au final, c’est vrai que j’avais écrit une loi pour estimer les risques de traumatisme crânien d’un humain en fonction du choc qu’il avait reçu à la tête, peut-être qu’en ne considérant pas les populations asiatiques, peut-être que ma loi n’aurait pas marché sur les populations asiatiques. On ne le saura jamais, mais c’est important de se dire qu’on essaye d’être le plus représentatif possible dans les données qu’on utilise pour calibrer ou entraîner un algorithme.

Ali Rebeihi : Un autre point qui peut biaiser, fausser l’algorithme, c’est l’origine des paramètres utilisés.

Aurélie Jean : Oui, l’origine des paramètres utilisés, sous-entendu les critères qu’on rentre dans l’algorithme. Pour que les gens comprennent, je classe les algorithmes en deux familles :
la famille explicite c’est lié à la symbolique. L’intelligence artificielle symbolique c’est lorsqu’on va définir entièrement à la main l’algorithme, les équations mathématiques, les critères, les conditions, les hypothèses ;
et puis tout ce qui est implicite, à savoir tout ce qui est lié aux techniques d’apprentissage où l’algorithme va créer lui-même ses critères, donc implicitement, en étant entraîné sur des données.
Donc ça vient aussi de ça, c’est-à-dire que quand écrit soi-même l’algorithme, on peut aussi mettre des critères qui sont biaisés parce qu’on voit le monde sous notre propre prisme, donc sous un prisme biaisé puisqu’on est humain.

Ali Rebeihi : Pour bien comprendre ce qu’est un biais algorithme implicite, prenons peut-être l’exemple d’un algorithme qui chercherait à reconnaître un chien sur une photo.

Aurélie Jean : Très bon exemple que je donne dans le livre. C’est bien, vous avez bien lu le livre !
Dans le livre je donne l’exemple du chien sur une photo. Il y a deux manières de faire : la première c’est de se dire « on va décrire mathématiquement ce qu’est un chien sur une photo », mais on se rend compte que ça ne marche pas très bien, c’est compliqué. Du coup on fait la méthode plus efficace et plus rapide qui est de dire « on va entraîner l’algorithme sur des photos qui contiennent des chiens ou pas, puis on va le rectifier, on va le superviser et, au final, l’algorithme va être assez efficace pour reconnaître un chien sur une photo ». Ce qui va se passer c’est que, justement, on va donner plein de photos à l’algorithme et implicitement – je dis implicitement parce qu’en fait ce n’est jamais défini explicitement on a du mal à retrouver ces critères après, a posteriori, dans les invariants de réseau neuronal entre autres si on prend les termes techniques – ce qui se passe c’est que l’algorithme va définir des critères implicitement pour identifier, ou pas, un chien sur une photo. Ce qui est très intéressant c’est que l’algorithme ne sait pas pour autant décrire ce qu’est un chien, par contre il va reconnaître, ou pas, un chien.

Ali Rebeihi : Jean-François Bonnefon, si on applique ça à la voiture sans conducteur ?

Jean-François Bonnefon : Bien sûr, la voiture sans conducteur va aussi être entraînée à reconnaître typiquement les différents usagers de la route, mais là on va plutôt passer du biais au dilemme. C’est-à-dire qu’on va moins s’intéresser au biais d’entraînement mais plus au fait que quand on crée un algorithme on lui donne un but. S’il n’y en a qu’un c’est assez facile, mais quand il y en a plusieurs, il va falloir qu’il arbitre entre ses buts. Et quand on ne peut pas les satisfaire tous à la fois, va se poser le problème du dilemme.

Ali Rebeihi : Il y a une forte responsabilité qui pèse sur les concepteurs d’algorithmes, Aurélie Jean ?

Aurélie Jean : Pas qu’eux, c’est-à-dire que c’est vrai que je dis, comme Cathy O'Neil, que les concepteurs ont une part de responsabilité, mais ce ne sont pas les seuls responsables.

Ali Rebeihi : Qui sont les autres responsables ?

Aurélie Jean : Tout le monde sur la chaîne d’un algorithme, c’est-à-dire les gens qui pensent à l’idée d’un modèle, l’idée de répondre à une question par un algorithme. Il y a les gens qui vont concevoir l’algorithme, les gens qui vont l’écrire, l’implémenter, le tester aussi ; les gens qui vont le marketer, donc vendre l’outil, et puis il y a des gens qui vont l’utiliser. Tous ces gens sur la chaîne de fonctionnement, de production, d’un algorithme ont, en fait, une part de responsabilité sur l’algorithme qu’ils développent, qu’ils pensent, qu’ils marketent, qu’ils vendent ou qu’ils utilisent. En fait c’est beaucoup plus compliqué et c’est vrai, c’est ce que je dis souvent, c’est-à-dire que nous, concepteurs, on doit travailler avec les gens du métier : par exemple, je n’aurais pas pu développer ce que j’ai fait si je n’avais pas travaillé avec des médecins. Encore aujourd’hui je fais de la recherche dans le domaine médical, si je n’étais pas entourée de médecins je ferais d’énormes bêtises et, de toutes façons, je ne saurais pas quoi faire pour être tout à fait honnête avec vous, pareil dans le domaine de la finance, et ces gens-là doivent aussi comprendre ce que je fais. Donc il y a vraiment un travail de collaboration et ça va très loin. Je considère que les gens, les entités, les entreprises qui vont développer des outils ont la responsabilité que les gens qui les utilisent les comprennent. Comme je dis beaucoup, les utilisateurs sont nos meilleurs ennemis. Pourquoi ? Parce qu’en fait ils vont nous aider à améliorer l’outil, donc il faut qu’ils comprennent ce qui se passe.
Pour la reconnaissance faciale, un exemple tout bête, il y a des distributeurs de savon qui reconnaissent la peau. En fait, il y a très longtemps, ces outils ne fonctionnaient pas sur les peaux noires. Les gens qui utilisaient ces machines, qui étaient Noirs et pour lesquels ça ne marchait pas, se sont juste dit « ça ne marche pas ». Ils ne se sont pas dit « tiens, il y a biais algorithmique, il y a un bug ». Or, si ces gens comprennent, ils vont pouvoir reconnaître le biais algorithmique très tôt, du coup on va tout de suite pouvoir le fixer si on arrive facilement à le fixer.

Ali Rebeihi : Jean-François Bonnefon, les concepteurs des algorithmes des voitures sans conducteur ont une sacrée responsabilité morale !

Jean-François Bonnefon : Oui. Encore une fois parce que ces algorithmes ont entre leurs mains la vie ou l’intégrité physique des utilisateurs, en effet.

Ali Rebeihi : Il faut concevoir des voitures sans conducteur qui devront, allez, je le dis vite, soit sacrifier le passager, soit le ou les piétons en cas d’accident. Et ça rappelle le célèbre problème du tramway. Racontez-nous ce fameux problème. Dans sa forme simplifiée, il faut imaginer un tramway sur le point d’écraser cinq personnes.

Jean-François Bonnefon : Le tramway est sur le point d’écraser cinq personnes, mais un être humain a la possibilité d’actionner un levier qui va, disons, dévier le tramway sur une autre voie, mais il se trouve qu’il y a une personne sur cette autre voie.

Ali Rebeihi : Qu’il n’aura pas le temps d’éviter.

Jean-François Bonnefon : Qu’il n’aura pas le temps d’éviter. La question c’est : est-ce qu’il est légitime de rediriger le tramway et de tuer une personne dans le but d’en sauver cinq ?

Ali Rebeihi : Là c’est une étude de l’esprit, ce problème du tramway c’est peu probable, sauf que la voiture sans conducteur rend réaliste et réalisable ce problème du tramway.

Jean-François Bonnefon : Elle le rend réaliste oui, même s’il faut toujours le dire, c’est un cas limite, totalement extrême, d’un problème qui est plus vaste et statistique qui est comment la voiture va distribuer le risque sur les différents usagers de la route, mais la forme, comme vous le dites, la plus frappante de ce problème-là, c’est son cas limite, le cas où vraiment la voiture a à décider de tuer un certain groupe de victimes ou un autre, dans une situation de crash inévitable.

Ali Rebeihi : C’est abusif de dire que dans les prochaines années l’algorithme de l’automobile sans conducteur décidera du sort soit des piétons soit des passagers de l’automobile ?

Jean-François Bonnefon : Décider, pour une voiture, c’est un peu l’anthropomorphiser, c’est sûr.

Ali Rebeihi : Je parle des algorithmes.

Jean-François Bonnefon : L’algorithme va faire ce qu’on lui a dit de faire. Il va optimiser la fonction qu’on lui a demandé d’optimiser. Ça veut dire qu’à un moment il y a des humains qui vont devoir dire qu’est-ce que nous souhaitons que l’algorithme fasse dans ces situations ?

Ali Rebeihi : Vous avez réalisé des études pour essayer de comprendre ce que les gens susceptibles d’acheter ces voitures attendent de ce genre d’automobile. Globalement, les individus souhaitent que les voitures sans conducteur puissent sacrifier leurs passagers pour sauver un plus grand nombre de piétons, mais ils ne veulent pas acheter une voiture qui pourrait les sacrifier eux-mêmes.

Jean-François Bonnefon : C’est cela et j’ai envie de dire que je les comprends. Ce n’est pas de l’hypocrisie. Je comprends bien que dans un monde idéal la voiture devrait faire le moins possible de victimes, donc, parfois, peut-être sacrifier son passager pour sauver dix piétons. Mais est-ce que j’ai envie de rouler dans une voiture comme ça moi-même ? Non, pas forcément, je comprends que c’est peut-être le meilleur des mondes, mais je n’ai pas envie de faire ce sacrifice-là moi-même. C’est complètement compréhensible et c’est, disons, une des formes de ce qu’on appelle en économie un dilemme social, c’est-à-dire que je comprends qu’il y a un monde idéal où tout le monde ferait cette action-là mais moi je n’ai pas très envie de la faire.

Ali Rebeihi : Et pourquoi ne pas laisser faire le hasard ?

Jean-François Bonnefon : Peut-être parce que le hasard c’est une façon de nous échapper, de ne pas prendre nos responsabilités. Il y a d’autres domaines, par exemple le don d’organes, où on se trouve dans cette situation : par exemple il n’y a pas assez de reins pour tous les gens qui les attendent, eh bien on ne fait pas une loterie, on prend nos responsabilités, on définit des critères pour les attribuer. Je n’ai jamais entendu quelqu’un me dire « il faut que les organes soient distribués par loterie. »

Ali Rebeihi : Ça peut freiner l’achat de ces voitures sans conducteur si la voiture sacrifie le passager au profit des piétons ?

Jean-François Bonnefon : Ça pourrait. Je ne sais pas trop ce qui pourrait se passer. On a eu un exemple, en particulier quand un cadre de Mercedes avait dit dans une interview : « Nos voitures privilégieront tout le temps la vie de leurs passagers aux dépens de celle des autres usagers. » On a envie de se dire que c’est peut-être séduisant pour les consommateurs potentiels de ces voitures, mais ils ont dû faire marche arrière en quelques jours après le scandale que ces propos ont déclenché. Les gens disaient : « Ah bon ? Ça veut dire que les riches possesseurs de Mercedes ont le droit de rouler sur tout le monde ? ». La publicité était tellement mauvaise pour Mercedes qu’ils ont été obligés de revenir sur cette parole-là.

Ali Rebeihi : Dans quelques instants on s’intéressera à la Moral Machine2 que vous avez cocréée, Jean-François Bonnefon, qui a connu un succès absolument extraordinaire. Vous la connaissez, Aurélie Jean, cette machine ?

Aurélie Jean : Oui, je l’ai testée moi-même.

Ali Rebeihi : On va expliquer tout à l’heure ce qu’est cette machine, vous me dites si je dis une bêtise, qui permet de collecter les préférences morales des gens, une base de données pour déterminer les algorithmes les plus acceptables pour les populations concernant la voiture sans conducteur.

Jean-François Bonnefon : Là vous avez utilisé le mot correct « les plus acceptables ». Ça ne veut pas dire qu’on dicte aux gouvernements ce qu’il faudrait faire ou aux constructeurs ce qu’il faudrait faire. On les informe juste de ce que la population juge le plus acceptable.

Ali Rebeihi : D’ailleurs vous présidez une commission auprès de la Commission européenne.

Jean-François Bonnefon : Oui, un groupe expert à la Commission européenne pour faire des suggestions sur la régulation de ce genre de situation.

Ali Rebeihi : De ce genre de voiture sans conducteur. On verra ça juste après la chronique « Pas son genre » de Giulia Foïs.

[Virgule sonore]

[Chronique « Pas son genre » de Giulia Foïs. La chronique n'est pas transcrite]

Ali Rebeihi : Grand bien vous fasse sur France Inter.

Ali Rebeihi : 10 heures 43 Faut-il avoir peur des algorithmes ? C’est notre thème ce matin avec la docteure en Science Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 25 7000.

Voix off : C’est un accident qui pourrait remettre en cause la voiture Tesla. Équipée d’un système d’auto-pilote, nul besoin de tenir son volant pour conduire cette voiture. Mais le 7 mai dernier aux États-Unis un de ces modèles a été impliqué dans un violent accident. Le véhicule était sur lune autoroute à double sens quand soudain un poids lourd a voulu se rabattre. Ni l’auto-pilote ni le conducteur n’ont détecté la manœuvre.

« Il est allé beaucoup trop vite je ne l’ai pas vu. »

Dans cette vidéo filmée par le conducteur, l’impact avait déjà été évité. Selon l’automobiliste, c’est sa voiture qui lui aurait sauvé la vie.
Cet accident met la compagnie dans une situation très inconfortable alors que son patron avait, quelques semaines plus tôt, promis de révolutionner la conduite autonome : « Je peux vous dire avec confiance que dans trois ans la voiture pourra vous amener d’un point à l’autre sans que vous ne touchiez quelque chose. Vous pouvez dormir pendant tout ce temps. »

Ali Rebeihi : Extrait de CNEWS en 2016. Il s’agit là d’une voiture avec conducteur, dotée d’un pilotage automatique. La voiture sans conducteur fascine et effraie à la fois. Jean-François Bonnefon, je rappelle que vous publiez La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?

Jean-François Bonnefon : Oui, c’est un exemple fascinant parce que c’est un objet qu’on a eu dans nos vies depuis longtemps et qui, tout à coup, change de statut.

Ali Rebeihi : La voiture sans conducteur est un objet de science-fiction et ça va devenir réalité.

Jean-François Bonnefon : Oui. Peut-être au sens où Elon Musk en parlait là : la voiture qui va vous amener de n’importe quel point A à n’importe quel point B sans que vous ne touchiez jamais un volant, je ne sais pas si on y arrivera. En tout cas, dans certaines conditions, une voiture qui se conduit de façon parfaitement autonome, oui, on y arrive.

Ali Rebeihi : Les algorithmes des voitures sans conducteur vont nous confronter à des choix moraux très importants. Vous avez conçu, Jean-François Bonnefon, une machine qui a obtenu un succès planétaire, la Moral Machine. Je crois qu’il y a eu combien ? 100 millions de personnes qui ont testé cette Moral Machine ?

Jean-François Bonnefon : 100 millions de réponses.

Ali Rebeihi : De réponses.

Jean-François Bonnefon : Bien sûr. Certaines personnes jouent longtemps, donnent plein de réponses, mais on a probablement plus de 10 millions de personnes maintenant.

Ali Rebeihi : Cette Moral Machine permet de collecter les préférences morales des gens au volant d’une voiture sans conducteur, évidemment c’est virtuel. C’est une base de données pour déterminer les algorithmes les plus acceptables pour les populations ? C’est ça ?

Jean-François Bonnefon : Oui. Au sens où la Machine Morale vous donne systématiquement le choix entre plusieurs accidents. La voiture autonome va s’écraser et va faire des victimes, mais vous avez, à chaque fois, la possibilité de choisir ces victimes. Grâce à la masse de données que nous obtenons avec ce site nous pouvons tester des situations extrêmement complexes et extraire les préférences des gens selon de multiples dimensions.

Ali Rebeihi : Pouvez-vous donner un exemple ? Je suis au volant de cette voiture sans conducteur, je ne suis pas au volant, je suis dans cette voiture sans conducteur, quelles sont, par exemple, les options ?

Jean-François Bonnefon : Quand nous avions commencé à travailler sur ce sujet, nous nous contentions de situations extrêmement simples, en disant « il y a une personne à gauche et deux personnes à droite, qu’est-ce que la voiture devrait faire ? » C’était un peu limité. Dans la Machine Morale nous avons pu insérer des millions de situations du type « en face de moi il y a une femme enceinte et deux grand-mères ; de l’autre côté il y a deux petites filles qui traversent au rouge, qu’est-ce que la voiture devrait faire ? »

Ali Rebeihi : Quel est le consensus moral que vous avez pu recueillir dans vos recherches ? Quelles sont d’abord, peut-être, les dimensions morales explorées par cette machine ?

Jean-François Bonnefon : Je ne vais peut-être pas toutes les citer parce qu’il y en a neuf.

Ali Rebeihi : Je vais les citer, elles sont page 60 de votre livre :

  • 1. Le nombre de personnages : préférez-vous sauver le groupe le plus nombreux ?
  • 2. Le sexe des personnages : préférez-vous sauver les hommes ou les femmes ?
  • 3. L’âge : préférez-vous épargner les bébés, les enfants, les adultes ou les personnes âgées ?
  • 4. L’état de santé : préférez-vous sauver des personnes en bonne forme physique ?
  • 5. Le statut social : préférez-vous épargner des individus au statut social plus élevé ?
  • 6. L’espèce : préférez-vous sauver les humains ou les animaux ?
  • 7. La situation sur la route : préférez-vous sauver les passagers ou les piétons ?
  • 8. La légalité : préférez-vous sauver les piétons qui traversent légalement ou sacrifier ceux qui traversent illégalement ? C’est ce que je ferais ! Non, je plaisante !
  • 9. Le statu quo : préférez-vous ne rien faire et laisser la voiture continuer tout droit plutôt que de la faire dévier ?

Voilà les neuf dimensions morales que vous avez soumises à la sagacité des internautes. Qu’est-ce qui se dégage ?

Jean-François Bonnefon : Ce qui se dégage c’est déjà un grand top 3, très clair : les humains plutôt que les animaux.

Ali Rebeihi : Ouf !

Jean-François Bonnefon : Il y a des gens qui pourraient ne pas être d’accord.
Le nombre de personnes, plus plutôt que moins, et puis l’âge avec une forte préférence pour prioriser la sécurité des enfants.
Ensuite, on va rentrer dans des choses qui sont moins fortes et nettement plus controversées : vous avez parlé du statut social. Les gens préfèrent sacrifier les sans-abri dans les scénarios de Moral Machine, ce qui est un paramètre qu’on nous a énormément reproché pendant tout le temps où on a collecté ces données. On nous disait : « Pourquoi est-ce que vous avez mis un sans-abri dans ces histoires ? Déjà les voitures ne les reconnaîtront pas et puis c’est moralement répugnant, même de poser la question. » Ce qu’on voulait c’était précisément avoir un exemple où on s’attendait à ce que les gens sacrifient les sans-abris et on allait pouvoir dire « regardez, voilà un bon exemple de pourquoi on ne peut pas suivre aveuglément les choix que font les gens dans Moral Machine. »

Ali Rebeihi : On vous a accusés d’encourager la discrimination et d’autres vous ont reproché l’absence de certaines caractéristiques comme l’origine ethnique ou la religion.

Jean-François Bonnefon : Exactement. C’est un choix qu’on avait fait très tôt, je crois même dans le premier quart d’heure. On est dans une boulangerie à Cambridge, on commence à imaginer Moral Machine et on commence à lister les dimensions qu’on va mettre dedans. Comme j’étais le seul blanc de l’équipe, quelqu’un suggère « est-ce qu’on met la couleur de peau dans Moral Machine ? » et tous ont dit : « Non, il ne faut pas qu’on fasse ça, parce que c’est la recette garantie pour que des gens s’organisent dans des coins pas très recommandables d’Internet et viennent en masse sur Moral Machine sacrifier les gens dont la couleur de peau ne leur plaît pas. »

Ali Rebeihi : Rappelez-nous à quoi peut servir cette Moral Machine ?

Jean-François Bonnefon : Je répète, le but ce n’est pas de dire aux gouvernements « regardez, nous avons les données dans votre pays, vous n’avez plus qu’à suivre les préférences de vos citoyens. » Pour nous, l’intérêt c’était de permettre aux gouvernements d’anticiper des frictions dans leur opinion, de dire, par exemple, « vous pouvez faire le choix de ne pas prioriser la sécurité des enfants, c’est un choix tout à fait légitime, mais préparez-vous à bien expliquer ça à votre population et ayez un plan en place pour le jour où une voiture autonome tuera un enfant alors qu’elle aurait pu l’éviter parce que là, vous allez avoir dans l’opinion publique un bâclage qui va être très fort. »

Ali Rebeihi : Est-ce que les variations morales varient beaucoup selon qu’on habite Toulouse, Jérusalem, Moscou ou Douala ?

Jean-François Bonnefon : Elles varient beaucoup mais en un sens un peu précis, c’est-à-dire qu’elles ne changent jamais de direction.

Ali Rebeihi : C’est-à-dire ?

Jean-François Bonnefon : Quand je dis que les gens préfèrent sauver le plus grand nombre, ils préfèrent sauver le plus grand nombre dans tous les pays. Quand je dis que les gens préfèrent sauver les enfants, ils préfèrent sauver les enfants dans tous les pays. Donc la direction reste toujours la même, par contre il y a de grosses variations dans la force des préférences. Par exemple, la force de la préférence pour sauver les enfants est beaucoup plus élevée dans le monde occidental que dans les pays d’Asie ou du Moyen-Orient où la préférence pour sauver les enfants versus les personnes âgées commence à s’estomper.

Ali Rebeihi : Aurélie Jean, sur cette Moral Machine ? Vous avez publié un article.

Aurélie Jean : On avait testé avec le professeur Esposito, Terence Tse et Joshua Entsminger. On avait travaillé, on avait testé la Moral Machine il y a deux ans, je crois. Moi j’avais adoré. C’est embarrassant.

Ali Rebeihi : C’est très embarrassant.

Aurélie Jean : C’est très embarrassant, mais je trouve que intéressant de faire ce genre de test. On avait fait un papier3. Justement, à partir de ce test, on avait réfléchi à ce que voulait dire d’avoir la voiture autonome niveau 5, entièrement autonome, déployée dans le monde.

Ali Rebeihi : Ça veut dire quoi niveau 5 ?

Aurélie Jean : Niveau 5 c’est l’autonomie complète.

Ali Rebeihi : Totale.

Aurélie Jean : C’est-à-dire qu’il n’y a pas besoin de volant, il n’y a pas de conducteur du tout, parce qu’il y a déjà des voitures autonomes aujourd’hui, semi-autonomes j’entends. Donc il y aavait plusieurs raisons pour lesquelles, c’était notre conclusion de l’article, on ne peut pas les déployer dans le monde. Une raison d’abord technique, comme le dit Luc Julia, avoir une voiture autonome niveau 5 qui passe la place de l’Étoile ce n’est pas possible, sur les autoroutes oui. Par contre, il y a des considérations morales, typiquement il y a dilemmes, des questions auxquelles on ne va pas répondre, même si, en fait, avec ces voitures autonomes on aurait au final moins d’accidents que si on a des voitures pas autonomes, en fait l’erreur machine n’est pas acceptée socialement donc ce n’est pas possible. Il y avait aussi des questions légales. C’est-à-dire que si vous avez une voiture qui est construite au Canada, qui traverse la frontière pour aller rouler aux États-Unis, légalement les lois ne sont pas les mêmes, la culture est différente, les algorithmes seront différents donc qu’est-ce qu’on fait ?

Ali Rebeihi : Aurélie Jean dit une chose très intéressante : les erreurs machine. Les erreurs des algorithmes sont peu acceptables socialement dans les populations. Alors que l’erreur humaine, bon ! Elle passe beaucoup mieux.

Jean-François Bonnefon : C’est vrai, c’est un effet qu’on remarque : les gens pardonnent plus leurs erreurs aux humains qu’aux algorithmes et franchement on peut comprendre. Quand un humain fait une erreur, je n’en tire pas la conclusion que cet humain va faire des erreurs tout le temps à l’avenir. Alors qu’un algorithme qui fait une erreur, je peux me dire que c’est peut-être un signal sur son comportement dans le futur.

Aurélie Jean : Et aussi les questions de responsabilité.

Ali Rebeihi : Qu’est-ce qui empêchera les constructeurs d’automobiles sans conducteur de programmer des algorithmes pour toujours sauver les passagers ?

Jean-François Bonnefon : Déjà la régulation. On peut s’attendre à ce que les gouvernements prennent leurs responsabilités et disent que si les voitures autonomes augmentent la sécurité sur la route, il faut qu’elles augmentent la sécurité de tout le monde, pas qu’elles augmentent la sécurité uniquement d’un certain groupe d’usagers aux dépens de celle des autres. Je pense que c’est quand même une direction qu’on va prendre. Il y a aussi la très mauvaise publicité. Le marché des voitures autonomes ce n’est quand même pas encore énorme comparé au marché des voitures conventionnelles et l’histoire de Mercedes nous l’apprend.

Ali Rebeihi : Rappelez-nous cette histoire.

Jean-François Bonnefon : Un cadre de Mercedes laisse entendre dans une interview que les Mercedes autonomes privilégieront toujours la vie de leurs passagers. Peut-être que c’est séduisant pour la très petite partie des clients de Mercedes qui sont intéressés par ces voitures autonomes, mais si c’est répugnant pour les 99 % qui achètent des Mercedes conventionnelles, alors ce n’est pas une opération commerciale géniale.

Ali Rebeihi : Jean-François Bonnefon, la Commission européenne vous a confié la présidence d’un groupe sur l’éthique des voitures sans conducteur. Qui compose ce groupe d’experts ? Les conclusions de ce groupe seront-elles impératives ?

Jean-François Bonnefon : Qui compose ? Une quinzaine de personnes qui viennent d’horizons différents. Il y a des juristes, des ingénieurs, des philosophes, un psychologue, moi-même. Maintenant est-ce que ses conclusions seront contraignantes ? Pas du tout. La régulation, la législation européenne c’est un long processus, là c’est un peu la première étape. C’est-à-dire qu’on réunit des experts qui essaient de débroussailler le terrain, de donner maintenant des pistes de régulation qui se veulent être les plus précises possible. Ensuite ça, ça va atterrir sur le bureau de quelqu’un avec dix autres rapports sur la question, qui va commencer à transformer ça possiblement en loi et ensuite, un processus très long est engagé..

Ali Rebeihi : Est-ce qu’on se rend assez compte de la révolution des voitures sans conducteur dans les dix, quinze ans qui viennent ?

Jean-François Bonnefon : Je pense que moi-même je ne m’en rends pas vraiment compte. C’est très difficile.

Ali Rebeihi : C’est comme si on avait posé la question sur Internet en 1995 ?

Jean-François Bonnefon : C’est ça. Parfois on imagine des scénarios : ce qui va se passer le jour où toutes les voitures seront autonomes ? Est-ce que ça veut dire qu’elles seront tellement confortables que tout le monde va vouloir prendre sa voiture, qu’on va se retrouver avec plus de voitures sur les routes, etc. ? En, fait la difficulté dans tous ces scénarios, c’est que même si tout le monde commençait à acheter une voiture autonome maintenant, ça prendrait encore 30 ans pour renouveler le parc. Donc on a vraiment beaucoup de temps avant d’arriver dans ces scénarios-là.

Ali Rebeihi : On s’est posé des questions morales avec les voitures sans conducteur.
Aurélie Jean, dans votre livre, vous regrettez que l’éthique manque cruellement dans la formation, dans les formations de scientifiques. Pour vous, il est urgent que les scientifiques deviennent ou redeviennent philosophes.

Aurélie Jean : Oui. Je le dis parce que par ma propre expérience, quand j’ai commencé à faire de la recherche dans le milieu médical, appliquée au milieu médical, j’ai eu, toujours parce que mon professeur, Joshua Entsminger, me l’avait conseillé, il m’avait dit : « Il faut que tu suives un cours d’éthique à l’université d’État de Pennsylvanie. » Donc j’ai suivi un cours de six mois d’éthique et je m’en sers encore aujourd’hui. Honnêtement, en tout cas en école doctorale, je pense que ça devrait être obligatoire.

Ali Rebeihi : Vous êtes d’abord avec ça, Jean-François Bonnefon ? Que l’éthique, la philosophie morale, soient obligatoires au niveau doctoral pour les scientifiques et après, bien sûr ?

Jean-François Bonnefon : C’est un toujours un coût d’opportunité, parce que pendant qu’ils font ça ils ne font pas autre chose, mais oui, c’est probablement une bonne idée. Oui.

Ali Rebeihi : Et dans la culture plus générale, la culture générale du 21e siècle, doit figurer, vous le dites à la fin de votre livre, la question du comment on passe du monde virtuel au monde réel et pour vous ça éviterait à la fois les amalgames, les discours catastrophistes.

Aurélie Jean : Et ça éviterait aussi les confusions, comme vous l’avez dit, c’est-à-dire qu’il y a un objet qui nous sépare de ce monde virtuel, de ce monde réel, qui est l’algorithme, le modèle, on peut donner plein de noms. Il faut toujours prendre conscience, il ne faut pas oublier qu’il y a ce miroir, il ne faut pas oublier qu’il y a cet algorithme, donc comprendre ce qu’il fait. En fait, au fur et à mesure du temps, ces deux mondes vont être de plus en plus similaires, donc il ne faut pas se tromper. Je donne l’exemple de la machine, du robot qui va vous dire « je t’aime », ça ne veut pas dire qu’il vous aime ; là, le miroir devient flou en fait.

Ali Rebeihi : Jean-François Bonnefon, un mot de conclusion.

Jean-François Bonnefon : Je crois que là il va falloir prendre nos responsabilités. C’est vrai que c’est important d’éduquer toute la population, de sensibiliser aux problèmes d'éthique des algorithmes parce que ce sont des choix qu’on ne peut pas laisser aux constructeurs ou même entièrement aux régulateurs, il va falloir que tout le monde y prenne part.

Ali Rebeihi : Pour vous, Aurélie Jean, l’une des grandes opportunités de la révolution algorithmique que nous sommes en train de vivre c’est qu’elle va nous obliger à miser sur ce qu’il y a de plus humain en nous et sur notre créativité.

Aurélie Jean : Je suis complètement d’accord.

Ali Rebeihi : Vous êtes très optimiste !

Aurélie Jean : Non, parce que je parle aussi de menace dans le livre, je suis quand même assez réaliste, mais c’est vrai que je pense que c’est une belle révolution qui nous est offerte à savoir se concentrer sur les choses que nous seuls pouvons faire et surtout comprendre que même si un algorithme peut faire des choses, ça ne veut pas dire qu’on le laissera faire.

Ali Rebeihi : Quelle est la principale menace qui vous effraie et à laquelle il faut que nous tous, citoyens, soyons vraiment attentifs ?

Aurélie Jean : C’est la perte de cohésion sociale due à un mauvais usage des algorithmes ou simplement à des discriminations technologiques propres aux biais algorithmiques.

Ali Rebeihi : J’aimerais terminer avec ces mots du chercheur en intelligence artificielle Antoine Bordes.

Aurélie Jean : C’est un de mes amis.

Ali Rebeihi : « Il faut distinguer ce que l’intelligence artificielle sait faire de ce qu’elle ne sait pas encore faire et de ce qu’elle ne saura jamais. »
Merci beaucoup Aurélie Jean. Merci pour votre livre De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, c’est publié aux Éditions de l’Observatoire.
Je recommande également votre livre, Jean-François Bonnefon La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?, c’est publié chez HumenSciences.

Demain nous vous attendons nombreux au Palais des Festivals et des Congrès de Cannes à l’occasion du Festival international des Jeux, émission en direct et en public. On s’intéressera aux bienfaits des jeux de société. Nous vous attendons dès 9 heures et demie au Palais des Festivals et des Congrès à Cannes.

La ligne rouge de la souveraineté numérique - Les Éclaireurs du numérique

mar, 07/28/2020 - 11:38


Titre : La ligne rouge de la souveraineté numérique
Intervenants : Tariq Krim - Fabrice Epelboin - Damien Douani - Bertrand Lenotre
Lieu : Les Éclaireurs du Numérique, podcast #49
Date : juin 2020
Durée : 33 min
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Données concernant la santé, Privacy Icons - Licence Creative Commons Attribution-NoDerivatives 4.0 International
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les Éclaireurs du Numérique invitent Tariq Krim (Netvibes, CNNum, Jolicloud, Polite.one…) pour décrypter l'absence de souveraineté numérique française. Quelle histoire, quels choix, quelles erreurs, quels enjeux, quelles solutions ?

Transcription

Voix de Tariq Krim : En fait on paye la R&D des uns et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l’optimisation fiscale.

Voix off : Le podcast des Éclaireurs, les enjeux cachés d’Internet.

Bertrand Lenotre : Salut tout le monde et bienvenue dans un nouvel épisode, connectés et confinés, des Éclaireurs du Numérique avec, comme d’habitude, Damien Douani chez lui. Salut Damien.

Damien Douani : Salut. On a décidé de rester à l’intérieur, il fait trop chaud dehors.

Bertrand Lenotre : Avec Fabrice Epelboin chez lui. Salut Fabrice.

Fabrice Epelboin : Salut.

Bertrand Lenotre : Et avec un invité aujourd’hui, Tariq Krim, chez lui j’imagine. Salut Tariq.

Tariq Krim : Absolument. Bonjour.

Bertrand Lenotre : Tu vas bien ? Tout s’est bien passé pour toi pendant cette période ?

Tariq Krim : Ça va. C’était un peu compliqué, mais ça va.

Bertrand Lenotre : On va parler aujourd’hui de souveraineté numérique, une fois n’est pas coutume dans ce rendez-vous, et de la ligne rouge, a-t-elle été franchie récemment ? C’est un peu la question qu’on va se poser tous les quatre ensemble.
Tariq, tu es le fondateur de Netvibes1, ça ne nous rajeunit cette histoire-là ! Tu es le fondateur de Jolicloud2 qui était un environnement, fondateur également de la plateforme Polite3 pour la renaissance éthique de l’Internet autour d’un concept qu’on appelle le slow Web. On est bons jusque-là ?

Tariq Krim : Oui, absolument.

Bertrand Lenotre : Tu as remis en 2014 à Fleur Pellerin un rapport4 en tant que vice-président du Conseil national du numérique5, six recommandations pour améliorer la reconnaissance de la filière des développeurs. On va peut-être revenir là-dessus, parce que tout ce qui n’a pas été mis en place en 2014, finalement, aujourd’hui en on paye un tout petit peu le prix. Tu as été auditionné au Sénat par la commission d’enquête sur la souveraineté numérique, ça tombe bien, assez récemment, donc tu es quelqu’un qui connaît un peu l’histoire du Web depuis toujours.
Un mot sur StopCovid.

Tariq Krim : Je m’étais déjà un peu exprimé là-dessus dans la presse. Je pense que StopCovid6 c’est finalement une occasion ratée. Quand on pense que la relation numérique que les citoyens ont avec l’État sur les questions de santé est assez limitée – on peut appeler le 15, on peut éventuellement aller à l’hôpital aux urgences – et là on avait une opportunité d’imaginer quelque chose de bienveillant, d’accompagnateur et finalement, dès le départ, on a eu une forme d’ethos assez liée à la surveillance. On s’est focalisé là-dessus à tel point, d’ailleurs, que les journalistes n’ont parlé que ce ça : est-ce que StopCovid est une application de surveillance numérique ? Elle a été faite avec une certaine opacité, beaucoup de rebondissements et, au final, elle sort dans des conditions qui ne sont pas optimales.

Bertrand Lenotre : Qu’est-ce que vous en pensez Fabrice et Damien ?

Fabrice Epelboin : L’application StopCovid sert vraiment à quelque chose. C’est une belle opération de sensibilisation de la population à la problématique de la surveillance. Objectivement, ça ne servira guère qu’à cela. Et comme on pourra, ça a été montré aujourd’hui sur Twitter, injecter des faux numéros d’identification qu’on pourra, par ailleurs, facilement aller récupérer en s’approchant des cibles qui, elles, utilisent l’application, ça va être très rigolo.

Bertrand Lenotre : On va se marrer !

Fabrice Epelboin : Oui, je pense que ça va être une grande séance de rigolade, bien mieux qu’Hadopi.

Bertrand Lenotre : Damien ?

Damien Douani : Pour cette application je crois, de ce que j’ai vu, que Cédric O a fait le forcing autour de cette application, l’exécutif n’était pas super chaud parce qu’il avait suffisamment de choses à traiter. Pour moi c’est un peu la quintessence du solutionnisme technologique, mâtinée certainement de lobbying bien appuyé derrière, pour faire en sorte de développer une application qui, au pire si je puis dire, servira de brouillon à d’autres essais divers et variés ou, a minima, permettra déjà d’avoir rempli le carnet de commandes de Cap G entre autres, mais fera surtout en sorte, effectivement, qu’on ait la sensation de se dire « tiens on a fait comme les autres et, en plus de ça, nous avons pu bomber le torse, nous Français, nous avons développé une solution à la barbe des GAFAM, nous sommes trop des souverains sur notre numérique national ! »

Voix off de Cédric O : Nous avions le choix entre prendre une solution française, l’évaluation technique était très claire, qui ne nous permettait pas, et je le regrette, qui ne nous permettait pas de faire les recherches scientifiques que nous souhaitions faire sur les données de santé. Étant donné les retards européens dans le cloud, nous n’avions pas la possibilité de faire tourner des algorithmes d’intelligence artificielle aussi développés, sur infrastructure française, que sur infrastructure américaine.
Je pense que la seule leçon qu’il faut tirer de cela c’est que, dans l’après crise, la question du cloud pour toutes les entreprises et pour les institutions françaises est absolument extrêmement importante.

Bertrand Lenotre : Ça c’est qu’a dit Cédric O, ça ne concernait pas StopCovid, ça concernait le Health Data Hub qui est hébergé par des serveurs de Microsoft et traité sur des serveurs de Microsoft. StopCovid, même si ce n’est pas à l’intérieur du même process, vient aussi rejoindre les serveurs de Microsoft .
Est-ce que ça vous a fait bondir ce qui a été dit là par Cédric O sur l’incapacité française et européenne à offrir la moindre solution potentielle au cloud ? Tariq, le cloud ça te dit quelque chose, tu connais bien l’histoire.

Tariq Krim : Je dirais que ce qui m’a un peu choqué – la réponse à la même question qui était posée par la sénatrice Catherine Morin-Desailly qui avait déjà publié, il y a quelques années, un rapport7 sur la colonisation européenne par le monde numérique, donc qui connaît bien le sujet – déjà, ce qui m’a gêné, c’est qu’on se permet, en fait, de dénigrer les sociétés françaises dans le cadre de l’hémicycle. Dans un autre domaine, on ne se serait pas permis. Aucun ministre du transport ne se serait permis de dire « le TGV c’est nul par rapport aux solutions chinoises ou japonaises ou… ». Déjà il y avait quelque chose qui me rendait mal à l’aise.
Il dit clairement qu’il est à l’origine du choix de Microsoft, il donne d’ailleurs ses arguments qui sont exclusivement des arguments financiers. Et là se pose évidemment la question de la ligne rouge : est-ce que dans l’hébergement de données sur les GAFAM tout est permis ? Est-ce qu’on peut mettre les codes nucléaires sur le cloud de Microsoft ? La banque de France ? Apparemment il semblerait qu’il y ait une bisbille là-dessus, doit-elle tourner sur un cloud étranger ? Ça c’est la première chose.
La deuxième chose qui est assez embêtante c’est qu’on n’a pas l’impression que ce projet s’inscrit dans une vision à long terme. C’est-à-dire que les données de santé c’est un des assets, c’est un des éléments les plus importants de notre politique à venir. Ça aurait dû faire l’objet d’un débat, d’un projet de loi important, d’une organisation budgétaire, de s’assurer, de savoir qui, comment, quoi va se faire.
Et puis la troisième chose qui me gêne c’est qu’on a un peu l’impression qu’on est dans une sorte de logique de privatisation qui ne dit pas son nom. En gros, c’est à nous, enfin l’État, de supporter les coûts de la santé – payer les hôpitaux, le personnel soignant, la Sécurité sociale – et on va laisser des acteurs, certaines startups, bénéficier de la valeur créée, c’est-à-dire les données de santé, c’est-à-dire l’avenir. D’une certaine manière, je disais souvent que pour qu’on ait ces données, il y a des gens qui ont littéralement donné leur vie, c’est-à-dire que ces données proviennent des hôpitaux. D’ailleurs, on a fait passer en catimini un décret qui oblige de faire remonter ces données, en pleine pandémie. Moi je trouve ça assez inacceptable, c’est-à-dire que ça donne l’impression que ce projet est mal ficelé et surtout qu’on n’a pas pris conscience de l’importance que ça aura dans le futur. J’ai un peu l’impression qu’on brade un des assets les plus importants de l’État au mieux disant ou au plus offrant.

Bertrand Lenotre : Là on est vraiment en train de parler du Health Data Hub, le HDH pour les intimes, qui va regrouper toutes les données qui vont être captées partout, par tous les systèmes de santé en France, qui va les traiter et qui va pouvoir faire du prévisionnel avec du deep learning, concrètement sur ces data-là. On n’était pas capable, de faire ça en France selon Cédric O. On est bien d’accord que tout ce qui nous concerne au niveau de la santé sera sur des serveurs de Microsoft ? C’est bien ça l’enjeu, sur le futur ?

Fabrice Epelboin : C’est vraiment ça et je vais me permettre de ne pas être d’accord avec toi Tariq, moi je trouve ce projet plutôt bien ficelé. On commence à voir comment il a démarré. Il a démarré à travers un contrat cadre, pas exactement au même titre que les contrats cadres de l’Armée qui avait déjà cédé une partie de son infrastructure à Microsoft, malgré tout un contrat cadre avec Microsoft qui a fait ce qu’on appelle un proof of concept c’est-à-dire une espèce de produit minimum pour prouver qu’effectivement il y avait moyen de faire ce fameux hub et qui, ensuite, a continué à travailler, a développé tout ça, et forcément a un peu déterminé les caractéristiques des besoins. Ce qui fait que très rapidement on s’est – hasard, coïncidence, allez savoir ! – retrouvé dans des besoins qui étaient uniquement possibles avec Microsoft. Donc forcément, c’est une façon commode d’éliminer des acteurs comme OVH8 et, pour le coup, ça montre que tout ça est extrêmement bien ficelé.
Je trouve qu’ils ont bien géré ce projet, simplement, évidemment, ils ne l’ont pas forcément géré dans l’intérêt des Français, mais c’est une autre histoire !

Bertrand Lenotre : Je voudrais citer juste un tweet d’Octave Kabla qui s’est énervé, une fois n’est pas coutume, ce n’est pas l’habitude chez Octave Kabla qui est le patron, le créateur d’OVH, qui dit : « C’est la peur de faire confiance aux acteurs français de l’écosystème qui motive ce genre de décision. La solution existe toujours. Le lobbying de la religion Microsoft arrive à faire croire le contraire. C’est un combat, on va continuer, un jour on gagnera ensemble ». C’est une vraie déclaration à la fois d’intention et puis un constat d’échec total. C’est-à-dire qu’OVH a l’État contre lui et les entreprises françaises ont l’État contre elles.

Damien Douani : Je pense qu’il y a un truc qu’il faut voir c’est que toutes les boîtes comme Microsoft, IBM ou autres, ont une caractéristique que n’a peut-être pas OVH, je ne sais pas, je serais heureux d’en discuter avec Octave, Tariq pourra peut-être réagir là-dessus. Il y a ce que j’appelle la jurisprudence de ces boîtes, Microsoft, IBM ou autres. C’est-à-dire en gros, quand vous êtes un DSI, que vous êtes dans une entreprise, vous savez très bien que prendre un de ces acteurs ça vous met, on va dire, face à zéro problème. Autrement dit s’il y a un a souci vous direz « ah oui, mais j’ai pris du Microsoft ou de l’IBM ou du Oracle – ce que vous voulez – et ça devait marcher, il ne devait pas y avoir de problème ».
Je me demande si, quelque part au sein de l’État, il n’y a pas un peu cette logique de DSI, autrement dit « je prends le minimum possible de risques », sachant qu’en plus je suis convaincu que des gens comme Microsoft ou autres ont une très bonne force de frappe commerciale, un très bon enrobage de tout ça et de dire, en gros, si vous avez un problème on sera là pour vous, ne vous inquiétez pas. Je ne sais pas si OVH sait faire ça, mais je pense qu’il y a quand même ça derrière, en fond de tâche on va dire, au-delà des aspects lobbying ou autres, cet aspect, ce côté « on sera tranquilles », mais sans la compréhension d’un élément clef qui nous réunit aujourd’hui autour du micro qui est cette notion de souveraineté nationale, qui est le fait de se dire que ce n’est pas neutre de mettre des données sensibles sur des serveurs qui, même s’ils sont situés en Europe par exemple, font qu’ils sont dans les mains d’une société qui n’est pas forcément une société nationale ou européenne. Je pense que le point clef est là, le point de bascule est à cet endroit.

Fabrice Epelboin : En même temps il faut les comprendre, la souveraineté c’était du fascisme il y a encore trois mois.

Bertrand Lenotre : Le mélange des mots, le poids des mots, le choc des photons comme dirait l’autre, fait qu’on n’arrive pas à utiliser le mot souveraineté pour le numérique. C’est ça ?

Fabrice Epelboin : Je pense que c’était un concept sur lequel on pouvait aisément s’essuyer les pieds il y a encore très peu de temps jusqu’au jour où il nous a explosé à la gueule et qu'il est sorti de son pré carré habituel qui était l’extrême droite française. La souveraineté numérique n’a pas grand-chose à voir avec l’extrême droite française, mais, en dehors de cette petite bulle, c’est quand même une niche qui est très largement occupée par l’extrême droite française. Là elle s’impose à nous.

Bertrand Lenotre : Est-ce que quelque part on n’a pas une génération de fonctionnaires traumatisés par le fait que, pendant des années, on a développé des grands projets nationaux du style et Thomson et X.25 et le Minitel et le Plan Câble et plein de choses comme ça qui ont toutes fini à la poubelle en dépensant un fric monstre qui fait que, au final, ils se réfèrent aujourd’hui au fait de se dire « mieux vaut acheter des solutions internationales. Déjà on fera comme tout le monde, on est secure et quelque part ce n’est pas plus mal parce qu’on a démontré qu’on n’était pas si bons que ça ».

Tariq Krim : Je ne pense pas, je vais dire pourquoi. Déjà je pense que le Minitel a été un grand succès. C’est un produit qui a été déployé, chipé, utilisé par des millions de gens pendant des années, ça marchait très bien. L’objectif du Minitel, rappelons-nous, c’était d’éliminer l’annuaire papier et ça a très bien marché, des grands-mères l’utilisaient, les gens ont découvert le e-commerce. Je crois que le vrai sujet c’est, qu’en fait, on avait dans le Minitel une infrastructure logicielle très centralisée, c’est-à-dire que c’était une équipe qui développait tout et on déployait à tout le monde et ça, ça marchait. Avec Internet on est entré dans un monde décentralisé où il fallait, en fait, être présent dans l’écriture du logiciel, dans les développements, dans un ensemble de choses qui allaient devenir nécessaires, dans la distribution de vidéos, donc à la fois au niveau des protocoles, au niveau des réseaux, des technologies de réseau, mais également au niveau des produits finaux. Et là, curieusement, plutôt que d’investir à la fois dans le logiciel libre, dans toutes les technologies qui allaient nous permettre d’avoir une bibliothèque de logiciels qui nous permettraient des outils, qui permettraient de développer des choses, on a essentiellement décidé de se focaliser sur les usages – c’est un terme que je n’ai jamais vraiment compris au sein de l’administration française – et sur le déploiement du haut débit. Finalement, à la fin, on est devenus des super câblo-opérateurs, des super opérateurs mobiles, mais qui étaient incapables de faire fonctionner les choses qu’il y avait à l’intérieur.
De toute façon il faut être clair il y a deux internets.
Il y a le premier internet qui est libre et gratuit, qui s’appuie sur le Web, qui a été ouvert, qui a été inventé en Europe parce qu’il faut rappeler que Linux et le Web ont été inventés en Europe.
Ensuite, il y a un deuxième internet que j’appelle plutôt l’Internet boîte noire, qui démarre un peu avant l’iPhone, qui lui est basé sur des formalisations complètement fermées et là on vit à l’intérieur des Mac, des PC, des iPhones et des devices et là effectivement, à aucun moment on n’a su, au niveau européen, pas uniquement français, exister. Les Chinois ont une vision différente ils ont dit « on va refaire un Android et on va obliger Apple à installer notre App Store, nos conditions ». On aurait dû faire quelque chose de similaire, on aurait dû s’assurer qu’il y ait de la concurrence d’App Store, de la concurrence de browser, que l’on puisse exister sur ces téléphones sans passer sous les fourches caudines. On le voit aujourd’hui pour l’application StopCovid, le gouvernement est obligé d’attendre que l’ingénieur d’Apple, à Cupertino, appuie sur le bouton « OK, c’est mis en production ». Alors que normalement, dans un monde idéal, on aurait pu développer sur ces plateformes comme on développait avant sur Windows et autres.
Je pense qu’il y a eu vraiment une méconnaissance du logiciel et surtout une perversion du système qui fait que les rares éditeurs de solutions, notamment en logiciels libres, ne sont jamais, en fait, soutenus par l’État. C’est-à-dire que d’un côté on a l’État qui donne de l’argent en subventions ou en aides à la recherche à plein de sociétés et quand il s’agit ensuite d’acheter des produits, eh bien soit on prend les produits sur étagère des grands groupes, qui sont un peu des Frankenstein c’est-à-dire des montages de plein de choses, on ne sait pas trop. Par exemple maintenant Orange il y a du Huawei et de l’Amazon Web Services, il y a plein de services packadgés derrière la marque Orange Business Services. Donc au lieu de prendre les petites boîtes, de les soutenir et de leur donner une assise, on préfère, à partir de là, considérer que le logiciel est neutre. Finalement, qu’on prenne du Microsoft ou qu’on prenne du OVH ou que l’on prenne du Scikit-learn ou que l’on prenne un autre produit – Scikit-learn9 est quand même la techno star de l’intelligence artificielle qui est développée en France par l’Inria – à partir de là tout ça ce sont des détails techniques. Je pense qu’il y a aussi un manque d’expertise technique, je crois que Fabrice l’expliquait dans un de ses tweets, les comex des grands groupes n’ont aucun ingénieur ou développeur ou personne capable de leur expliquer que ce qu’ils disent parfois à la télévision n’est pas totalement vrai.

Bertrand Lenotre : Justement, juste un point. Tu as dit un mot clef : « neutre ». Autrement dit, on part du principe aujourd’hui qu’effectivement acheter du cloud Microsoft ou Amazon ou autres c’est comme acheter une boîte de corn-flakes, c’est une parmi tant d’autres sur le marché et puis basta. Ce qui, d’ailleurs très souvent, a été la logique dans une logique de DSI dans les entreprises ou autres. La question est là. Est-ce qu’on peut parler de neutralité lorsqu’on est à la tête d’un État et que l’on veut acheter une prestation de service auprès d’acteurs qui se trouvent être, pour la plupart, américains ou peut-être chinois, bref, en gros pas européens, à part OVH, parce qu’on n’a pas mis ce qu’il fallait sur la table pour pouvoir le faire ? Est-ce que c’est question-là de neutralité qui est en jeu aujourd’hui ?

Tariq Krim : Oui. En fait, il y a plusieurs questions.
La première c’est qu’il n’y a pas que le logiciel, il y a aussi le caractère juridique. Comme vous le savez, il y a maintenant des lois d’extraterritorialité aux États-Unis qui font que lorsque vous utilisez des logiciels américains, avec notamment ce qu’on appelle le CLOUD Act10, il y a une possibilité pour les États-Unis d’avoir accès à certaines données. Il y a aussi un problème d’allégeance, c’est qu’à la fin, finalement, le patron d’une boîte américaine n’a de véritable allégeance qu’au pays qui lui délivre son passeport, ne serait-ce que pour pouvoir se déplacer.
Il y a ça, mais il y a aussi, je crois un schisme. On parle souvent de la startup nation qui est, à la base, un concept israélien mais qui est devenu le leitmotiv de ce gouvernement. On est passé, en fait, du village global à l’exploitation de la misère humaine, qu’elle soit psychologique ou économique. C’est-à-dire que désormais le monde technologique n’est plus neutre politiquement. Au-delà de la neutralité, il y a, évidemment, la neutralité technologique, mais il y a également le problème de la neutralité politique qu’expliquait tout à l’heure Fabrice. Aujourd’hui, acheter à une société, prenons Microsoft mais ça pourrait être Google ou d’autres, ce sont des boîtes qui ont des contrats actifs avec le ministère de la Défense US, ce sont des gens qui ont eu… Vous avez dû voir ce qui s’est passé avec GitHub, les gens qui étaient contre le fait que Microsoft soutiennent ICE [United States Immigration and Customs Enforcement] qui est, en fait, la police de l’immigration qui a enfermé des enfants aux États-Unis dans des conditions absolument catastrophiques. Soudain, se pose la question de ce que l’on finance, c’est-à-dire qu’au départ on ne finance pas uniquement un développement, on finance aussi des gens qui vont avoir des destins singuliers et, en fait, on paye la R & D de Google, Facebook et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l'optimisation fiscale. Donc il y a aussi une question de regarder à plus long terme quelles sont les conséquences de nos actes.
En fait, cette transition du modèle politique des plateformes qui est devenu un modèle assez agressif, notamment avec le Brexit et Trump, c’est quelque chose qui n’avait pas été anticipé par les gens qui en faisaient la promotion. Pour eux, on était encore dans « tout le monde il est beau, tout le monde il est gentil » d’il y a dix ans où on faisait des applications, c'était fantastique, Uber c’était fantastique, Deliveroo c’était fantastique, et aujourd’hui on se rend compte qu’on a, d’une certaine manière, optimisé ces outils qui ont une vision politique. J’appelle les suprémacistes numériques. Pour moi typiquement, le profil du suprémaciste numérique c’est Cédric O qui est d’ailleurs le père fondateur du Health Data Hub dans sa mission. C’est l’idée de se dire qu’en fait l’État ou la société n’est qu’un modèle mathématique que l’on peut modéliser à merci indépendamment des conséquences.
En fait, cette vision est de plus en plus forte. Vous l’entendez quand les gens vous parlent des data, « grâce aux data, grâce aux data », le monde qu’on est en train de nous donner c’est un monde de modélisation et un monde dans lequel on ne tient pas vraiment compte des conséquences de ces modélisations, des conséquences de ces usages, de ces produits. On est, en fait, dans une situation assez drôle c’est qu’aujourd’hui l’intérêt de ces plateformes est diamétralement opposé à celui, évidemment, de notre société. C’est aussi pour ça que je promeus l’idée d’un slow Web. Pour moi, le rôle d’un État c’est aussi de ralentir la société, ce n’est pas de l’accélérer à tout prix.
Ce choix sur étagère qui, à priori, semble neutre, en fait injecte une vision politique dans le logiciel que l’on fait tourner. D’une certaine manière ça me fait regretter le logiciel plan-plan, pas forcément incroyable, mais plan-plan des deux ou trois générations précédentes.

Fabrice Epelboin : C’est clair qu’aujourd’hui les grands acteurs de la technologie sont des acteurs politiques de premier plan. Il y en a certains qui ne sont pas très clairement positionnés, qui essayent d’avoir une relative neutralité, je pense à Apple, mais les autres sont très clairement engagés dans des camps politiques. Facebook a très clairement pris le parti de Donald Trump, là où Twitter est très clairement anti-Trump. Amazon, en ce moment, quand on connaît l’actionnaire d’Amazon, ça n’est un secret pour quiconque, est radicalement anti-Trump également. Et toutes ces sociétés vont aller se positionner non seulement dans des camps politiques mais aussi des projets de société. Transformer la société en algorithmes et l’aborder par la data ce n’est pas neutre, c’est très précisément ce qu’a fait Cambridge Analytica11.
Donc il y a un vrai projet de société derrière, qui est connu de peu de monde, en tout cas qui, pour l’instant, ne suscite pas beaucoup d’inquiétude. Je me souviens de conversations que j’ai eues avec des gens qui me disaient « oui, le transhumanisme, peut-être, un jour, mais pour l’instant c’est un peu une vision » et qui ne réalisaient pas du tout que le transhumanisme c’est ce qu’on a vu à l’œuvre aux États-Unis et qu'on est en plein dedans. La transformation de la société par le transhumanisme a commencé, on est au tout début mais ça a commencé.
Il y a une incompréhension politique de ce que ces acteurs peuvent avoir comme intérêt et surtout la facilité avec laquelle, typiquement, on a privatisé une partie de la justice française relative à la liberté d’expression auprès d’un acteur qui est très clairement positionné pour Trump, pour les fake news et pour, on va dire, ce renouveau du populisme. C’est fascinant comme stupidité politique !
Mon diagnostic c’est qu’il y a vraiment un manque total de compréhension non seulement de la réalité de ce que sont les technologies, mais de la dimension politique qu’elles ont prises et c’est extrêmement dangereux d’avoir comme dirigeants des gens qui sont à ce point ignares.

Bertrand Lenotre : On va terminer tous les quatre, si vous voulez bien, par la solution, les solutions possibles, est-ce qu’il y a un électrochoc possible de la société française, des sociétés non-américaines occidentales on va dire, qui sont en mesure de proposer des solutions technologiques et d’avoir une forme de souveraineté technologique ? Est-ce qu’il y a un électrochoc possible qui pourrait nous amener à créer quelque chose ?
On en a déjà parlé, il y a des opérations qui se font avec de plus en plus de prise de conscience de cette nécessité de la souveraineté, mais qu’est-ce qu’il faudrait pour que le grand public s’en empare, comprenne que là la ligne rouge est franchie et que, vraiment, on est en train d’aller vers un danger qui sera suprême et qui sera bien plus politique et social que technologique à l’arrivée ? Tariq.

Tariq Krim : Je voudrais dire que la première des choses qui est importante, c’est de comprendre qu’une autre vision du numérique est possible. On se rappelle tous les débuts de l’Internet, c’est-à-dire finalement les débuts avant la plateformisation à outrance, le culte de la vanité, l’algorithmisation de tout. C’était une époque agréable à vivre. C’était une époque où on avait l’impression que l’Internet était une forme d’extension de nos vies. Aujourd’hui c’est devenu une prison, quelque chose de suffocant. Donc ça c’est la première des choses.
La deuxième, je dirais qu’il y a un vrai problème de RH [ressources humaines]. Je l’avais déjà dit dans le rapport que j’avais rendu à Fleur Pellerin il y a six ans. On a de très bonnes personnes, de très bons développeurs, on a de très bonnes écoles, mais ces gens ne travaillent pas au niveau où ils devraient être. Aux États-Unis, quand ils sont chez Google, c’est le CTO [Chief technology officer] de Linkedin, c’est le responsable du cloud de Google, c’est l’inventeur ou le co-designer de Kindle. Ou, dans le cas de feu Jean-Marie Hullot qui est un de mes mentors, le développeur originel de l’ìPhone. C’est ce niveau. Quand ils travaillent en France, en fait, on les met dans le huitième sous-sol de Bercy ou on leur demande de sortir de leurs compétences technologiques pour devenir des super chefs de projets, des gens qui essayent plus ou moins de bâtir des éléments de langage.
Au-delà du fait qu’il y a un autre projet numérique qui existe, il y a un problème de RH, et la troisième chose c’est de savoir où on veut aller. Je pense que la question est à la fois française et européenne. On est dans un monde où on n’a plus autant de ressources que l’on souhaite. On s’est rendu compte qu’on atteint un gap au niveau écologique mais également au niveau de la production d’énergie. On va arriver maintenant à un moment où la production arrive à certains pics. Donc la question c’est comment vit-on dans un monde qui est moins matériel ? Eh bien il faut avoir des biens immatériels riches, de qualité, et on peut se poser la question.
Pour moi, le seul compétiteur par exemple de Netflix c’est l’Ina [Institut national de l'audiovisuel]. Si on faisait un service qu’on mettait gratuit avec l’ensemble des données, de tous les films, tout ce qui a été produit par la télévision publique depuis 50 ans, on aurait quelque chose d’absolument incroyable qui pourrait être réutilisé par les professeurs, qui permettrait, en fait, de construire une contre-proposition. Aujourd’hui on essaye de faire, entre guillemets, un « sous-Netflix » en se disant comme on a les droits des séries américaines, pour l’instant on va re-packager les choses — c’est un peu ce qu’a fait Canal+ en disant on fait un truc un peu similaire —, alors que pour moi il faut une vision radicalement différente.

C’est la même chose pour l’Éducation. L’Éducation c’est un terreau incroyable pour développer des nouvelles choses, mettre en avant de nouveaux logiciels, appendre, en fait, à la prochaine génération à utiliser ces outils, à les fabriquer, à comprendre comment un ordinateur marche parce que c’est aussi le problème maintenant, c’est qu’on est un peu dans le mythe du cargo. C’est-à-dire qu’on arrive, on a un téléphone, on ouvre une boîte, il y a un appareil qui s’allume. C’est un demi-dieu qui sait tout de nous et on ne sait même pas comment il fonctionne. Donc il faut vraiment reprendre complètement ce qui n’a pas été fait depuis au minimum deux/trois gouvernements et relancer une politique où la technologie fait partie de notre vie. La seule question qui se pose c’est la question de la balance, on parlait de la ligne rouge, c’est-à-dire où la technologie commence, où elle s’arrête, quelles sont les règles, les clarifier et ne pas, en fait, se donner le sentiment que la technologie est illimitée.
Ce qui est fascinant dans les religions c’est que toutes les religions, d’une certaine manière, apprennent aux gens à gérer l’abondance. Par le jeûne, le ramadan, enfin plein de choses, on append à gérer l’abondance. Et dans ce monde numérique qui est, en fait, une forme de nouvelle religion on nous a intégrés dans cette abondance, dans cette d’infinité et ça ne marche pas, ça rend les gens fous. Le rôle d’un État, mais aussi le rôle de la société, c’est d’apprendre à construire des limites à cela – le terme de limite me gêne un peu – une balance entre ce monde infini et la réalité dans laquelle on vit et apprendre à gérer les deux. Si on ne fait pas ça, on sera effectivement dans un monde où les formules mathématiques où on peut simuler, dans la simulation de la simulation, comme dans Enception et, à la fin, on a l’impression qu’on connaît le monde alors qu’en fait on ne connaît qu’une petite partie du monde. Donc il faut revenir à une balance, un équilibre et, j’allais dire, presque aux textes fondamentaux. Tout ça a été vu et revu par les pionniers de la cybernétique, l’intelligence artificielle dans les années 60, qui étaient des chercheurs et des philosophes. Maintenant on a rétréci notre vue et on est, en fait, dans le discours marketing. Tu parlais de transhumanisme, je ne sais toujours pas ce qu’est le transhumanisme, en tout cas, ça marche bien d’un point de vue marketing.

Fabrice Epelboin : Je pense qu’il y a une piste à explorer parce qu’on est quand même dans un momentum. On est en plein dans une épidémie terrible qui a mis en valeur comme jamais la réalité de ce que c’est que la souveraineté, à tout niveau. Il y a réel problème avec la santé en France, ça n’aura échappé à personne, et, qui plus est, on se retrouve avec ce très mauvais timing de la part de Cédric O qui fait que cette histoire de hub, de data, destiné à être le futur de notre santé publique, on vient de le passer aux Américains. Peut-être qu’il serait temps d’expliquer à la population ce qu’on serait en droit d’attendre d’un tel hub de data.
À partir du moment où on aura toutes les données de santé des Français et qu’on aura ces algorithmes d’intelligence artificielle pour les ausculter, on va être en mesure de commencer à faire de nouvelles formes de santé, à faire de la santé prédictive, à repérer des problèmes qui étaient totalement invisibles jusqu’ici, à mieux les adresser, à faire des politiques de santé beaucoup plus fines, et tout ça va potentiellement nous apporter un confort absolument spectaculaire qui devra bien compenser, effectivement, une décroissance qui s’annonce absolument inévitable.
Aujourd’hui, l’enjeu c’est de savoir si on sera maîtres et souverains de toute cette plus-value de santé qui est promise par ces technologies ou si on l’achètera en abonnement, comme n’importe quel service cloud, aux Américains, quitte à se retrouver dans des situations très compliquées d’un point de vue géopolitique. Les États-Unis évoluent à une vitesse folle et on pourrait tout à fait demain se retrouver dans une situation tout comme les Iraniens où, du jour au lendemain, ils coupent les vivres. Et là, on se retrouverait sans système de santé.
Ce sont des problèmes qui sont critiques et qui sont de très long terme. C’est vraiment un projet de société qu’on a bazardé en douce sans même un appel d’offres. On a, à mon avis, le momentum pour que tout le monde comprenne une problématique qui est pourtant très pointue d’intelligence artificielle et de cloud. C’est vraiment maintenant qu’il faut le faire.

Damien Douani : Pour conclure sur tout ça, pour aller dans le sens, bien sûr, de Tariq et de Fabrice, pour ajouter un élément, je pense qu'il faut rendre tangibles les choses. Je pense que tout ce qu’on se raconte entre nous c’est intellectuellement très intéressant, mais, pour n’importe qui dans la rue, ça lui passe 10 000 au-dessus. Sauf si on explique que du jour au lendemain leur carte vitale ne peut plus fonctionner, sauf si on leur explique par exemple que, pendant la crise du covid, on ne pouvait plus trouver de paracétamol parce que la molécule est fabriquée en Chine et elle n’est plus développée dans les laboratoires en France, ni même en Europe.
Ce genre de choses permet d’expliquer très concrètement la même chose. En expliquant que vous ne pourrez plus trouver de paracétamol parce que la molécule n’est plus exportable, eh bien peut-être que demain on ne pourra plus forcément exploiter vos données parce que les données seront ailleurs et gérées autrement, par un acteur qui n’est pas nous.
Je pense qu’il y a un vrai élément par rapport à ces notions de propriété d’État, si on peut dire ça, sans rentrer dans des logiques qui pourraient faire penser à des idéologies communistes ou autres, ce n’est pas la question. La question c’est quels sont aujourd’hui les enjeux d’État et justement les éléments sur lesquels le pouvoir doit pouvoir préempter son pouvoir régalien, comme à une époque la monnaie. Il y a vraiment ces éléments-là qui sont très clairement des enjeux clefs et qu’il faut rendre vraiment tangibles à la population à qui, à mon avis, il manque cette notion de tangibilité. Pour autant, on est à un moment clef de notre histoire qui fait que c’est plus que jamais maintenant qu’il faut arriver à expliquer ça.

Bertrand Lenotre : Avec la nécessité d’avoir une génération qui soit formée dès le plus jeune âge à ces questions-là. C’est un vrai problème crucial et c’est un problème quasi insoluble en matière de temps. C’est-à-dire qu’il faut réagir tout de suite parce que c’est urgent et, en même temps, former toute une population, toute une génération nouvelle à comprendre ces enjeux-là. On va avoir du boulot et du pain sur la planche pour faire tout ça. Il va falloir encore quelques podcasts, j’ai l’impression.
Merci à vous trois d’être venus en parler aujourd’hui, c’était passionnant, il y avait plein de choses intéressantes. Vous pouvez réagir dans les commentaires, je m’adresse à ceux qui nous écoutent, vous avez plein d’endroits où ça se passe, plein de plateformes différentes. On est aussi dans le royaume de la plateformisation et vous pourrez nous interroger là-dessus plus tard.
Merci Tariq. Merci Fabrice. Merci Damien. À +.

Tariq Krim : Merci.

Damien Douani : Ciao.

Fabrice Epelboin : Merci à tous.

Revue de presse de l'April pour la semaine 30 de l'année 2020

lun, 07/27/2020 - 21:57

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[La Tribune] Le cluster Naos passe le logiciel libre à l'échelle de la Nouvelle-Aquitaine

Le mercredi 22 juillet 2020.

Ne dites plus Aquinetic mais Naos, pour Nouvelle-Aquitaine open source. Ce cluster régional dédié au logiciel libre vient de changer de nom et d'échelle pour regrouper désormais 120 PME régionales. La souveraineté numérique et la formation des entreprises sont au cœur de ses priorités comme l’explique à La Tribune, son co-président François Pellegrini.

[Politis.fr] Numérique: Une portée de Chatons contre les gros Gafam (¤)

✍ Romain Haillard, le mercredi 22 juillet 2020.

Le confinement a fait apparaître avec clarté notre dépendance aux géants du numérique. Mais des services associatifs et locaux offrent une alternative.

[Le Figaro.fr] Linux, Bitcoin... Des codes open source stockés dans l'Arctique pour le futur

✍ Ingrid Vergara, le mardi 21 juillet 2020.

À la manière d’une Bibliothèque d’Alexandrie version digitale, la plateforme de développement GitHub a déposé des codes de logiciels open source emblématiques dans un coffre-fort sous le permafrost de la région norvégienne du Svalbard.

Et aussi: [The Conversation] Réconcilier l'Économie sociale et solidaire avec la tech, l'autre enjeu de la transition numérique

✍ Arthur Gautier, le mardi 21 juillet 2020.

Des questions de financement, de formation ou encore de valeurs expliquent le fossé entre deux mondes qui auraient pourtant tout intérêt à travailler ensemble.

[Next INpact] Application StopCovid: La CNIL exige la correction de plusieurs irrégularités (¤)

✍ Marc Rees, le lundi 20 juillet 2020.

Comme promis, la Commission chargée de veiller au respect des données personnelles a mis son nez dans StopCovid. Ses conclusions? L’application de suivi de contact souffre de plusieurs problèmes au regard du RGPD. «Le ministère de la Santé est mis en demeure d’y remédier» expose l’autorité.

Et aussi:

Souveraineté numérique, la douche froide - Tariq Krim et Bernard Benhamou - Thinkerview

lun, 07/27/2020 - 14:22


Titre : Souveraineté numérique, la douche froide ?
Intervenants : Tariq Krim - Bernard Benhamou - Sky
Lieu : Thinkerview
Date : 17 juillet 2020
Durée : 2 h 20 min 21
Visualiser la vidéo ici ou ici
Licence de la transcription : Verbatim
Illustration : captures d'écran de la vidéo - Licence Creative Commons Attribution Pas d’Utilisation Commerciale Partage dans les Mêmes Conditions 4.0 International,licence de toutes les interviews de Thinkerview.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sky : Messieurs, bonsoir.

Tariq Krim : Bonsoir.

Bernard Benhamou : Bonsoir.

Sky : Nous vous recevons pour une chaîne internet qui s’appelle Thinkerview. Nous sommes en direct. Est-ce que vous pouvez vous présenter succinctement, on va commencer par Tariq.

Tariq Krim : Tariq Krim. Je suis entrepreneur dans le Web. J’ai eu plusieurs carrières. J’ai démarré très tôt en informatique, c’était ma passion. Je suis parti dans la Silicon Valley et je suis revenu en France où j’ai monté plusieurs boîtes. En ce moment, je m’intéresse essentiellement aux questions de souveraineté numérique.

Sky : Bernard.

Bernard Benhamou : Bernard Benhamou. Je dirige actuellement l’Institut de la souveraineté numérique1. Après avoir été à de nombreuses reprises du côté obscur de la force dans différentes fonctions auprès des gouvernements successifs et toujours autour des questions numériques, d’usage du numérique, j’étais délégué interministériel [aux usages de l’Internet, Note de l'intervenant], autour des questions de régulation du numérique depuis, en gros, une vingtaine d’années. J’ai eu l’occasion de rencontrer Tariq à plusieurs reprises sur ces questions.

Sky : Merci. On a décidé de vous faire venir ce soir pour parler de souveraineté numérique, pour parler de privacy shield, pour parler de tout un tas de choses qui ont trait à notre souveraineté numérique et d’autres sujets connexes. On va commencer par Tariq.
Tariq, comment ça se passe en France la souveraineté numérique ? C’est open bar pour les sociétés américaines, pour les sociétés jordaniennes, israéliennes, pour les sociétés saoudiennes ? C’est comment ? Est-ce qu’on a, pour être tout à fait trivial, le pantalon en dessous des genoux ?

Tariq Krim : Vaste question. Je pense qu’on a un vrai problème en France c’est qu’on a l’impression qu’on n’est pas capable de faire des choses, qu’on n’est pas capable de construire ces infrastructures. Ce qui est fascinant c’est que depuis 40 ans en fait, je dirais plus, même 50 ans, je revoyais récemment un document YouTube sur le plan Calcul2 où Michel Debré parlait de la souveraineté numérique, je ne changerais pas une seule ligne.

[Problème technique]

Sky : On revient sur la souveraineté numérique et le fait qu’on essaie de courir avec le pantalon en dessous des genoux.

Tariq Krim : Ça n’a pas toujours été le cas. Ce qu’il faut comprendre c’est qu’après la Deuxième Guerre mondiale, en gros, les Américains ne veulent pas que l’Europe dispose d’une industrie informatique pour une simple raison c’est que qui dit ordinateur dit arme nucléaire, donc dissuasion. À ce moment-là on a vraiment un alignement parfait entre la vision, notamment celle du général De Gaulle, la création de la CII (Compagnie internationale pour l'informatique), de toute une infrastructure. Ce qui est d’ailleurs assez fascinant, c’est qu’à l’époque ils n’ont pas décidé de créer une boîte, mais de regrouper un ensemble de boîtes autour d’un projet, donc construire des calculateurs. À l’époque Control Data faisait des calculateurs un peu puissants, on n’avait pas vraiment accès à ce genre de machine. On a eu cette vision qui est assez française, c’est de dire on fait nos trucs, dans notre coin – on a fait ça avec le TGV, on a fait ça avec le Minitel –, on construit nos réseaux, nos infrastructures. Et ce qui est fascinant, dans une ancienne vie j’ai passé beaucoup de temps à bidouiller des Minitels, quand on ouvre un Minitel la première chose qui est impressionnante c’est que tout est fabriqué en France, absolument tout. Les gens ne le savent pas, mais le Minitel a inspiré Steve Jobs pour le Macintosh, la poignée, le design, donc on est parti d’un modèle où on faisait tout à un modèle où on ne fait presque plus grand-chose maintenant. On veut faire le Health Data Hub3, on est obligé de passer par Microsoft ; on veut faire telle chose, des appels d’offres, on nous explique qu’on ne sait plus faire. Il y a plusieurs raisons, la première, l’expertise est là, mais les gens qui ont l’expertise ne sont jamais les gens qui décident. Ce n’était pas le cas avant on avait beaucoup d’ingénieurs, de polytechniciens, des gens un peu stricts, mais qui étaient des vrais ingénieurs, qui savaient construire, mettre en place des équipes. Maintenant on a plutôt des consultants, c'est-à-dire des gens qui font des powerpoints.

Sky : Technocrates !

Tariq Krim : Mais il y a eu des technocrates éclairés. Là on est vraiment dans le modèle où on a vu une présentation de Google, c’est super – et c’est vrai que c’est très beau – c’est ça qu’il faut faire. Alors qu’en fait, quand on construit des projets sur le long terme, par exemple le Health Data Hub, mais tout ce qu’on va faire, tout ce qui est nouveau dans le numérique, on ne le fait pas pour cinq ans, on le fait pour 20 ans, 30 ans. Quand on a fait le TGV on n’a pas dit c’est un produit qu’on va faire pour quelques années ; il y a une vision long terme, il faut donc la construire et la construire c’est difficile. Il y a deux visions : il y a la vision Uber, on clique, la voiture arrive en bas et on rentre dans la voiture et puis il y a la vision où on passe son permis de conduire, on achète sa voiture, on apprend à la conduire, c’est plus compliqué, c’est plus cher, mais c’est ce qu’on doit faire.

Sky : Bernard, ce n’est pas un peu trop tard de passer son permis de conduire, de prendre sa voiture, d’apprendre à mettre la transition dans un climat de guerre économique où tout s’accélère ?

Bernard Benhamou : On pourrait penser et je pense que ce qui est, d’une certaine manière, le constat que font beaucoup aujourd’hui c’est que, justement, une fois que la guerre est perdue autant faire alliance avec les vainqueurs. C’est une triste résignation, une molle résignation de certains, y compris au sein de l’État. Donc non, je crois que non seulement il n’est pas trop tard, mais je dirais que l’actualité des technologies, c’est-à-dire l’actualité des GAFAM pour les appeler comme ça, c’est-à-dire les grandes sociétés américaines du secteur, montre qu’on est quasiment entrés dans une crise – certains disent crise systémique, peu importe le terme – une crise de confiance à l’échelle mondiale. C’est-à-dire que maintenant Facebook est en trajectoire de collision avec un nombre infini d’acteurs aussi bien publics que privés et c’est aussi, quelque part, le cas de Google avec YouTube qui lui aussi est un accélérateur de radicalisation. Donc par définition je crois que ce modèle-là n’est pas durable, on est convaincus de ça. Mieux encore, j’entendais le mot privacy shield qui était prononcé en tout début d’émission ; c’est un plaisir de venir le lendemain de l’annulation4 d’un traité transatlantique qui était, je dirais, l’ombrelle pour 1500 ou 2000 sociétés américaines pour essayer effectivement de traiter des données des Européens aux États-Unis.
Je fais partie de ceux qui pensent qu’à terme, Tariq citait le Heatlth Data Hub, le nouveau système de rassemblement des données de santé des Français en un seul lieu à des fins de développer des systèmes d’intelligence artificielle, je pense que ces données ne peuvent pas, quoi qu’il en soit, sortir du territoire européen, peut-être pas du territoire français mais au moins européen.
À l’heure qu’il est, le fait que Microsoft puisse traiter une partie de ces données directement aux États-Unis pose un problème. On vient de voir, avec l’annulation du privacy shield, que la justice européenne considère que les données des Européens ne sont plus sécurisées correctement par rapport aux intrusions des systèmes des services de renseignement, par rapport effectivement à l’usage que peuvent en faire des sociétés. Maintenant il y a une sorte de tenaille qui est en train de s‘établir. Ce qui était quasiment inenvisageable il y a cinq ans quand justement le prédécesseur du privacy shield qui s’appelait à l’époque, pour les plus férus, le safe harbor a été annulé, personne ne pensait que le suivant serait annulé. Maintenant tout le monde est conscient que c’était quasiment inéluctable et surtout, on se rend compte à quel point on ne peut plus reproduire la chose, faire comme si de rien n’était et continuer effectivement comme si, j’allais dire, il n’y avait pas eu de scandale Snowden5, il n’y avait pas eu d’affaire Cambridge Analytica6, il n’y avait pas eu toute une série d’évènements qui font que les Européens doivent sortir de l’innocence, je dirais de la naïveté par rapport aux Américains qui faisait dire aux Européens« mieux vaut effectivement leur confier nos données, de toute manière ce sont de belles et grandes sociétés ». Non ! Aujourd’hui on se rend compte que Facebook non seulement est un acteur économiquement toxique pour son écosystème – on pourrait dire la même chose de Google –, mais que ce sont des acteurs politiquement toxiques et qui l’ont montré à plusieurs reprises. Je citerais des gens qui ne sont pas des anarcho-libertaires extrêmes, je citerais le rapport du Parlement britannique qui parle de Facebook en disant « ce sont des gangsters numériques qui subvertissent la démocratie ».
Ce propos-là intervient neuf ans après qu’une certaine Hillary Clinton dise par la voix de son conseiller, Alec Ross à l’époque, que le numérique, l’Internet, est devenu le « Che Guevara du 21e siècle » – c’était l’époque des Printemps arabes – en pensant que c’était l’outil de libération des peuples.
Aujourd’hui, on se rend compte que l’Internet peut être tout, y compris un outil d’asservissement, y compris un outil de contrôle. Nos amis chinois le montrent tous les jours [via la notation des actions de chaque individu, Note de l'intervenant] avec le crédit social, ce système orwellien de contrôle. Donc nous, Européens, qui étions entre guillemets « les mauvais élèves » du monde numérique dans le sens où nous n’avions pas notre industrie propre, avec notre Réglement européen sur les données7, avec cette volonté que l’on a justement de protéger une notion presque dépassée, surannée, qu’on appelle la vie privée, eh bien quelque part nous avions raison… [beaucoup de pays le reconnaissent aujourd’hui, Note de l'intervenant].
Donc je pense que le rebond européen pourrait prendre appui sur, en gros, notre singularité par rapport aux acteurs chinois évidemment et effectivement aussi aux acteurs américains.

Sky : Tariq, ça pose quels types de problème plus en détail le fait que nos data soient stockées aux États-Unis ou soient envoyées aux États-Unis ou peuvent être exploitées depuis les États-Unis depuis une loi extra-européenne ? Par exemple si les services secrets tombent sur nos data qu’est-ce qu’ils peuvent faire ?

Tariq Krim : Déjà, je dirais que ce qu’il faut déjà comprendre c’est que l’Internet depuis au moins 2002, c’est à peu près la date qu’on se donne de temps en temps, est un espace militarisé. C’est-à-dire qu’on prend un ordinateur, on le sort d’une boîte, on le connecte. À l’époque je crois qu’il fallait deux minutes pour qu’il soit transformé en zombie, maintenant je pense que ça ne prendrait même pas 30 secondes, peut-être même moins. Ça veut dire que le fait que l’ordinateur soit connecté, il y a des bots, des services, qui cherchent en permanence des machines à hacker automatiquement puisque comme elles ne sont pas mises à jour, elles sortent de la boite, les patchs de sécurité n’ont pas été mis, et on va les utiliser ensuite pour plein d’actions coordonnées.
En fait, l’espace d’Internet est à la fois un théâtre militaire, mais également un espace commercial qu’il faut sécuriser, donc ça pose un vrai problème parce que, finalement, ce sont les mêmes tuyaux qu’Amazon utilise pour nous vendre des chaussures et que la NSA, la CIA, USCYBERCOM (United States Cyber Command) et évidemment les services de tous les autres pays utilisent ; c'est exactement le même réseau. Donc on a ce problème c’est qu’on n’a pas su, à un moment donné, définir d’un point de vue politique, et ça Bernard l’a suivi, des règles d’usage. En gros, dans les guerres de type cyber à la différence du nucléaire où c’est le premier qui a tiré qui a perdu, dans les guerres cyber c’est l’inverse, c’est le premier qui a tiré qui a gagné. Je sais que dans les vieux magazines Wired qui est magazine californien que tout le monde connaît, il y a un auteur de science-fiction, un peu l'un des parrains du mouvement cyberpunk, qui expliquait quels sont les dix services – c’était en 1993 – qu’il faudrait faire tomber pour faire tomber les États-Unis. À l’époque l’Internet était numéro 4 parce qu’il y avait encore des grids [réseaux] privés. Aujourd’hui, évidemment, ce serait la première chose. On l’a vu hier sur Twitter. Finalement on peut hacker le compte Twitter de quelqu’un de très connu. Le plus connu d’entre eux, si c’était Donald Trump, on pourrait presque déclarer une guerre nucléaire.
Le problème qu’on a, pour revenir sur la question des services de renseignement, c’est que de toute façon l’écoute existe depuis toujours. Ce qui se fait aujourd’hui avec Google, avec les GAFAM, ce que Snowden a dévoilé, existait déjà avant, dans les années 50/60 avec d’autres projets, le projet Minaret, ce qui a donné ensuite Echelon et ensuite on a eu plein de sujets. Ce qui est nouveau aujourd’hui, c’est que ces centres de données analysent non plus les données personnelles : on oublie que des sociétés, Facebook, Google, ne travaillent plus uniquement sur les données, mais sur le comportement. En gros, il y a dix ans, « je veux savoir qui tu es pour te vendre quelque chose ». Aujourd’hui, je vais utiliser ton comportement – le nombre de fois que tu vas sur Instagram, si tu t’arrêtes quelques millisecondes sur une photo, ah tiens tu as envie de voyager ?, est-ce que tu es déprimé ?, est-ce que tu es euphorique ? – pour transformer ton comportement.
Ce qui s’est passé, c’est que la plupart des acteurs de la Valley se sont rencontrés. Nathan Myhrvold qui était le chief scientist de Microsoft, a présenté – je crois que c’est Daniel Kahneman qui avait fait la Thinking Fast and Slow – le marketing comportemental. En fait, il y avait des gens de Google, il y avait des gens d’Amazon, il y avait des gens de Facebook, la personne de Facebook qui a parfaitement compris comment utiliser ces techniques c’est Sean Parker qui était à l’époque le président de Facebook.
Ce qu’il faut savoir c’est que Facebook n’était pas très intéressé à ça jusqu’à ce que Sheryl Sandberg vienne de Google avec la vision du capitalisme de surveillance, c’est-à-dire monétiser les données à outrance, et avec cette idée qu’on peut modifier les comportements pour vendre.
Le problème que l’on a aujourd’hui c’est que quand on modifie le comportement d’un consommateur, c’est-à-dire qu’on veut le rendre dépressif parce que quand il est dépressif il va plutôt acheter des voyages, quand il est euphorique il va s’acheter des chaussures – je schématise –, mais on touche à la psyché des gens. D’une certaine manière ce qui est fascinant c’est que quand on rêve le soir, en fait notre subconscient est alimenté par toutes les images qu’on a vues dans la rue, à la télévision. Aujourd’hui une grande partie, voire la majorité des images qui sont en fait perçues par notre cerveau viennent des écrans. Ce sont des images qui ont été choisies. Ce que l’on voit sur Instagram a été choisi. Si on veut vous déprimer, on va vous montrer la photo de votre ancienne petite amie au lever et immédiatement on va changer votre caractère. Vous allez dire non ! Mais ça marche, ça marche très bien. J’avais rencontré un garçon chez Facebook [qui faisait ce genre d’experience, Note de l'intervenant], ils avaient fait des tests, ils ont arrêté, depuis lui a d’ailleurs quitté Facebook, il déprimait, il disait : « On est capable de modifier les comportements. On modifie les comportements pour le commerce, mais quand on modifie le comportement pour le commerce on modifie aussi la partie citoyenne d’une personne ».

Sky : Pour les élections.

Tariq Krim : Pour les élections.
Ce qui est fascinant c’est qu’on est aujourd’hui dans un monde qui est compliqué parce qu’on a un hyper-fragmentation algorithmique. Avant on avait la télévision, on avait 15/20 niches. Maintenant on est rentré dans des micro-niches qui targettent parfois quelques personnes. Il y a un groupe terroriste un peu d’extrême droite, je dis terroriste parce qu’ils ont tué des gens en Californie, qui s’appelle Boogaloo, je crois que tous les membres se sont rencontrés grâce à Facebook.
Donc on a construit une espèce de fragmentation algorithmique permanente, on crée des micro-niches. Ce que je pense c’est que les micro-niches créent de la médiocrité, parce qu’on est un peu le borgne au milieu d’un micro-monde d’aveugles et, en fait, on ne communique plus. Effectivement ça a construit, avec YouTube mais aussi avec Facebook, ce que j’appelle souvent la radicalisation algorithmique, c’est-à-dire qu’on travaille mentalement une personne et ces techniques qui sont des techniques de comportement, de modification comportementale, sont des techniques qui ont été inventées dans les années 60 par la CIA, par tous les services de renseignement pour modifier la psyché. Elles ont été boostées par le fait que désormais, avec le téléphone, on est seul. On va aller voter, on doit voter pour Hillary, et puis on va aux toilettes, on prend son téléphone et là on voit un truc, une fake news sur Hillary, on est énervé, on est vraiment énervé, c’est le bon moment et puis on change son vote à la dernière minute.
Ce qui a changé entre l’élection de Trump et l’élection d’Obama c’est que l’élection d’Obama c’est une élection internet alors que l’élection de Trump c’est devenu une élection sur le smartphone et le smartphone, en fait, est un appareil unique. Personne ne regarde votre téléphone, personne ne regarde ton téléphone Bernard, c’est quelque chose de privé. Donc on a cette capacité et elle a été utilisée. Les services de renseignement, à mon avis, n’osent pas faire ce genre de chose. Ils le font peut-être. Je pense honnêtement aujourd’hui que Facebook, Google et toutes ces plateformes ont moins de scrupules à utiliser ces techniques, parce que c’est du commerce, que les services de renseignement.

Sky : Il y a une porosité entre les services de renseignement et les GAFA ? Bernard.

Bernard Benhamou : C’est possible, bien sûr que si. S’il y a bien une chose que l’affaire Cambridge Analytica a bien démontrée, cette énorme affaire effectivement durant la préparation de l’élection américaine, pour ceux qui n’en auraient pas entendu parler, c’est que d’une part les données peuvent être traitées par des psychologues, spécialistes d’opérations psychologiques.

Sky : PSYOP.

Bernard Benhamou : PSYOP. On voit bien qu’il y avait plusieurs convergences, je dirais. Ce que décrit très bien Shoshana Zuboff dans son livre sur le capitalisme de surveillance, d’ailleurs je le conseille à tous vos auditeurs et spectateurs, même si, malheureusement, il n’est pas encore traduit en français, il est traduit en allemand. J’espère qu’il y aura un éditeur très bientôt, je crois que c’est le cas [il devrait être traduit à l'automne, Note de l'intervenant]. On voit bien qu’il y a une convergence entre l’activité économique qui se nourrit de la data et les activités des services de renseignement qui, c’est une tendance de ces dernières décennies, a de plus en plus été vers l'analyse de signaux technologiques plutôt que celle des signaux humains [SIGINT], donc utilise de plus en plus la data.
Comme le rappelait justement Tariq, on n’en est plus au stade d’analyser le comportement, on en est au stade de le manipuler. Pour ceux qui sont en mesure d’agir – Tariq faisait référence au fait de pouvoir changer l’état d’esprit, l’humeur d’une personne – on sait très bien que pour aller vers un vote extrême on aura plus intérêt à faire que la personne soit en colère. Une personne qui est sereine, qui est zen, à priori aura moins tendance à aller vers un vote extrême, en tout cas c’est comme ça que la chose a été analysée.
Donc oui, typiquement on sait maintenant que modifier le newsfeed sur Facebook permet de modifier l’état d’humeur des gens. On sait qu’en leur montrant, ce qu’a très bien démontré une autre spécialiste, Zeynep Tufekci, une turco-américaine, remarquable sociologue sur la radicalisation via les vidéos justement, en particulier sur YouTube, on sait effectivement que si on montre des choses de plus en plus hard, ce qu’elle dit très bien, elle dit que rien n’est jamais trop hard pour YouTube, voila ce qu’elle dit, et elle concluait un de ses articles en disant « YouTube est peut-être devenu le principal outil de radicalisation du XXe siècle », parce que justement la puissance du choix algorithmique en fonction des personnes, en allant vers des vidéos de plus en plus hard, en montrant des messages de plus en plus radicaux ! Tout à l’heure Tariq évoquait les micro-niches, c’est-à-dire les bulles informationnelles comme on les appelle. La particularité aujourd’hui c’est qu’on fait en sorte que des gens ne rentrent jamais en contact avec des idées qui les dérangent, pas simplement des idées différentes, non, des idées qui remettent en cause leur schéma de vie. Donc on crée des groupes qui ne se parlent jamais entre eux.

Sky : C’est qui « on » ?

Bernard Benhamou : Ceux qui ont intérêt à le faire, c’est-à-dire ceux qui tant d’un point de vue économique que d’un point de vue politique ont envie de faire en sorte qu’une partie de la population devienne captive par rapport à un certain type de comportement.

Sky : Ou d’idéologie.

Bernard Benhamou : Ou d’idéologie. Sachant que la consommation, ça a très bien été étudié par des publicitaires depuis plusieurs dizaines d’années [les actes de consommation peuvent révéler les convictions d'une personne, Note de l'intervenant], y compris nos actes de consommation quotidiens, anodins : la soupe Campbell qu’on voyait dans le tableau de Warhol était apparemment plutôt une soupe consommée par les Républicains, ne me demandez pas pourquoi, je n’en sais strictement rien. De même pour les voitures, je crois que certaines marques « étaient plus », entre guillemets, progressistes, démocrates, d’autres étaient plus républicaines, Chevrolet versus Ford, je crois.
On sait que l’on est capable d’agir sur le comportement des gens en fonction de toutes sortes d’informations qui nous proviennent [de leurs activités en ligne, Note de l'intervenant]. Et après, évidemment, ceux [personnes ou groupes] qui y ont intérêt pour des raisons politiques, que ce soit des puissances étrangères, que ce soit des partis politiques parfois même en collusion l’un avec l’autre puisque c’était un peu de ça dont il était question, sur la Russie en particulier ; l’affaire Stone qui vient juste de rebondir récemment était liée à des contacts répétés avec des officiels russes, des officiers du renseignement russe. On voit bien qu’aujourd’hui on a les instruments avec des moyens limités, avec des groupes de personnes limités, la célèbre agence russe, Internet Research Agency, ce sont des moyens qui ne sont pas énormes mais qui permettent d’influencer, comme on l’a vu pour Cambridge Analytica.

Sky : Agence russe privée. C’est un privé qui a des porosités avec le gouvernement. Il semblerait.

Bernard Benhamou : Oui. Il semblerait, je ne suis pas un russologue aussi distingué que certains de vos invités [Bernard Benhamou indique Tariq Krim, NdT], mais on pense effectivement qu’il y a eu une interaction de l’un par rapport à l’autre.

Sky : Ils ont laissé faire.

Bernard Benhamou : Oui. Et ce qui est amusant c’est de voir le processus. C’est-à-dire ce n’était pas « votez Trump », c’était « vous ne serez pas bien représentés par Hillary Clinton, à quoi bon aller voter ». Donc l'objectif était d'éteindre le vote démocrate, en particulier pour les Afro-Américains.
On maîtrise de mieux en mieux ces phénomènes-là et ce qui le plus inquiétant, pour revenir aux questions de souveraineté numérique, c’est que pour l’instant les États ne sont pas en mesure de faire valoir la défense de certains principes, y compris vis-à-vis de sociétés comme Facebook.

Sky : Tariq, on fait comment pour éviter l’astroturfing de nos élections ? Est-ce qu’on fait du brouhaha médiatique comme les dix dernières années, du moins les cinq dernières années, avec un gouvernement qui, excusez-moi d’être très trivial, fait sa pleureuse en disant « oh ! là, là, les Russes ils font des bêtises, ce n’est pas bien, ce n’est pas bien les Russes, ce sont des méchants les Russes ! », ou est-ce qu’on muscle un peu le cerveau de nos concitoyens ? Est-ce qu’on se donne des outils pour les repérer plus facilement ? Qu’est-ce qu’on fait ?

Tariq Krim : Il y a plusieurs sujets.

Sky : Comment on fait pour réinvestir la dialectique ? Comment on fait pour éviter que la population soit laissée aux quatre vents de toutes les propagandes ?

Tariq Krim : Il y a un vrai sujet là-dessus. Déjà on a très rarement appris la rhétorique. Aujourd’hui celui qui parle le mieux, on l’a vu avec les débats – qu’elles que soient les opinions des uns et des autres, hydroxychloroquine, etc. – on a vu avec le covid, on est sur un sujet scientifique et médical, la plupart des gens qui aimeraient en parler, qui aimeraient être présents sur les plateaux de télé, se disent je n’y comprends rien et on a même vu en parler des journalistes qui ne savaient même pas ce qu’est une courbe exponentielle, donc on était vraiment à un niveau zéro en science. La rhétorique est importante. C’est là où c’est très intéressant. Quand on voit par exemple les dissents de la Cour suprême, vous avez des gens qui défendent des points de vue opposés à leur vue mais de manière tellement brillante que vous êtes prêt à dire « il a raison » et de dire l’inverse. Donc il faudrait qu’on apprenne un peu !

Sky : Un concours d’éloquence.

Tariq Krim : Un concours d’éloquence. Voilà. Ça c’est la première chose.
La deuxième c’est qu’on a un cancer. Si vous voulez, on est passé de ce qu’on a appelé dans les années 90, les online communities, des milliers de personnes, on a connu les débuts, le WELL8 [Whole Earth 'Lectronic Link], toutes ces communautés, aux médias sociaux, des blogs, des millions d’utilisateurs à des plateformes, on a désormais des milliards d’utilisateurs. Ce dont on ne parle pas, ce dont tu parlais tout à l’heure Bernard, avec YouTube, c’est qu’aujourd’hui on est dans un monde de fast-food. Pour moi Facebook, Google, c’est le Mac Donald de la pensée. Ce qui est fascinant avec Mac Donald c’est que la recette du Big Mac c‘est la même recette quasiment dans tous les pays. Par contre, en France on prend de la viande française, de la salade française, des pommes de terre françaises. Donc on a construit un algorithme qui est finalement le même – je n’aime pas dire un algorithme, parce que je déteste les gens qui parlent des algorithmes – on a créé un ensemble d’éléments de programme qui nous permettent d’identifier, d’analyser une personne, ce sont les mêmes, simplement le substrat, donc les matières sur lesquelles on va construire un profil sont différentes. On est tous énervés pour les mêmes raisons, on est tous euphoriques pour les mêmes raisons. On a créé, en fait, un système de massification de la personnalisation, on n’a pas de système personnel.
La deuxième chose, c’est que le cancer de nos dernières années, ce qu’on appelle le behavioral microtargeting, le micro-ciblage comportemental, on vous cible en fonction de vos comportements, de vos habitudes, de ce qu’on a compris de vous, pas parce que vous vous intéressez à des céréales ou à acheter une Toyota. Le drame pour moi, la chose qui m’énerve le plus dans ces 20 dernières années, malheureusement ou heureusement je connais un peu les gens qui fabriquent ces choses chez Google, chez Facebook, les plus grands génies en mathématiques ont soit servi à détruire le système financier avec les marchés dérivés et les subprimes et aujourd’hui, la génération d’après qui normalement devrait réfléchir à d’autres sujets, en fait passe ses journées à optimiser des algorithmes pour vendre mieux des Toyota sur Facebook.
On a, en fait, un savoir-faire incroyable qui a été mis dans quelque chose qu’on pensait inviolable. Ce qui est assez incroyable dans l’histoire de Facebook c’est que un, ils l’ont su assez tôt. Alex Stamos qui était l’ancien patron de la sécurité a dit très rapidement « on a un problème », on a étouffé l’affaire. Mais surtout, ce qui s’est passé, c’est qu’ils se sont fait avoir. C’est-à-dire que d’un certain côté vous avez Facebook qui dit à son annonceur « on est capable de savoir exactement qui peut faire quoi, comment, combien de gens ont vu le clic » et dès qu’on parle des problématiques liées à la campagne « ah non, je crois qu’on n’a pas vraiment toutes des données ». Ils se sont fait avoir par des gens qui étaient bien plus malins qu’eux. Et surtout, on oublie de le dire, ce qui est génial dans la campagne de Trump, c’est que la campagne d’Hillary avait ses spécialistes en big data, etc., ils avaient fait leur sauce. L’équipe de Trump qui n’avait pas autant d’argent, d’ailleurs Brad Parscale vient apparemment, si j’ai bien compris, d’être viré par Trump, a dit aux gens de Facebook qui avaient ce qu’ils appelaient le projet Alamo – il y avait Cambridge Analytica et il y avait plein de gens, mais il y avait des gens de Facebook qui étaient « prêtés » entre guillemets par Facebook – comment on peut faire pour micro-targeter ? Donc ils l’ont fait de manière extrêmement efficace. Comme le disait Bernard, on a surtout travaillé à faire de la suppression de vote.
Cette technique, à mon avis, devrait être interdite en Europe, complètement interdite. On a les bénéfices, c’est-à-dire vendre plus de Toyota ou vendre des céréales.

Sky : Des Renault ou des Scénic.

Tariq Krim : Des Scénic et des Renault ou d’autres produits. C’est vrai que j’utilise toujours… Vendre des produits de consommation ne mérite pas de menacer la démocratie.
Je n’ai jamais de problème : les gens pensent ce qu’ils veulent ! Mais là, on sent que les gens sont manipulés par des méthodes grossières.

Sky : Pourquoi ?

Tariq Krim : Je m’explique. L’algorithme de YouTube, ce n’est pas moi qui le dit c’est Yann Le Cun qui est notre grande pointure en IA et qui a un peu vendu, il faut le dire, son âme à Facebook. Il le dit, il dit quand vous arrivez par exemple pour la première fois sur YouTube, il faut qu’au bout de cinq vidéos on soit capable de vous proposer une sixième vidéo que vous ayez envie de voir. En fait on fait un travail assez grossier et ce travail assez grossier c’est cette base, ce substrat sur lequel on va travailler ensuite. Fondamentalement on n’a jamais travaillé sur un approfondissement. Tous les algorithmes de ciblage, de micro-ciblage sont assez grossiers, c’est « on doit faire de l’argent très vite » et ça pose un problème parce qu’il n’y a aucune régulation. C’est difficile de réguler ce que vous ne voyez pas. Il y a des publicités en Angleterre sur le Brexit que le régulateur n’a jamais vues, il ne sait même pas qu’elles existent, elles ont été vues trois mois après le vote. Donc on a vrai sujet. Je sais que ça ne plaît pas beaucoup aux gens de la tech quand je dis ça, mais il faut supprimer, arrêter le microtargeting, c’est-à-dire qu’il faut revenir à la publicité classique où on fait du ciblage plus classique, un peu plus grossier, mais qui n’est pas après utilisé comme un outil.

Sky : Bernard je te redonne la parole tout de suite. Je repose une question à Tariq : est-ce qu’on peut intoxiquer, à l’échelle du particulier, l’algorithme ?

Tariq Krim : Par intoxiquer ? Juste pour bien être sûr d’avoir compris la question.

Sky : Je sais que tu es très fan des vidéos de Youtubeuses beauté, si tu regardes tes cinq premières vidéos de Youtubeuses beauté, est-ce que l’algo de YouTube – je sais que tu n’aimes pas dire l’algo – va penser que tu es fan de Youtubeuses beauté ? Est-ce que tu as compris le principe ?
Je te le fais en plus simple. Tu vas sur YouPorn, tu ne regardes que des vidéos où il y a des blacks, on ne va te proposer que des vidéos avec des blacks. Est-ce qu’il y a moyen de l’intoxiquer ?

Bernard Benhamou : De modifier le fonctionnement de l’algorithme de façon fausse, de manière à l’induire en erreur.

Sky : Exactement Bernard.

Tariq Krim : En fait il y a deux forces en ce moment, il y a deux types d’algorithmes chez Facebook. Il y a les algorithmes qui veulent intoxiquer les gens, donc qui veulent montrer tous les contenus y compris ceux qui rapportent le plus d’argent, puisque finalement c’est très neutre, c’est la bottom-line, c’est triste à dire, mais Facebook est passé d’une boîte qui était très technologique à une boîte qui est vraiment focalisée sur la monétisation. Et à côté de ça, il y a les algorithmes dits de monitoring parce que comme ils se sont fait taper sur les doigts avec Rohingyas, avec la campagne, donc ils ont créé des outils pour faire un peu la police. Donc on a ces deux algorithmes qui se battent en duel. Évidemment celui qui est là pour rapporter de l’argent marche le plus.
Est-ce qu’une personne seule peut modifier l’algorithme qui lui est imposé ? Je ne crois pas. Je ne sais pas si vous vous rappelez, à l’époque d’Echelon il y avait eu une histoire – Echelon, le système de la NSA basé sur des mots clefs – quelqu’un avait récupéré une liste de mots clefs, avait dit « on va mettre nos mots clefs dans tous les e-mails et on va saturer le réseau Echelon ». La réalité c’est qu’en fait les gens utilisaient un seul mot clef donc dès qu’il y avait un ensemble de mots clefs, évidemment le mail était ignoré, donc ça ne servait à rien.
Ce qui est très intéressant dans ces plateformes c’est que les algorithmes changent énormément avec toujours la même question : comment l’engagement est le plus fort. Si quelque chose ne marche plus c’est comme un vieux disque, on change le disque, on passe à autre chose. Et souvent, comme le disait Bernard, on va vers des choses qui sont de plus en plus ennuyeuses parce qu‘on pousse vraiment les gens aux limites de leur psyché.

Sky : Gavage.

Tariq Krim : Absolument.

Sky : Bernard.

Bernard Benhamou : Je pense que le problème c’est que là où auparavant on réfléchissait en termes de navigation sur Internet, c’est-à-dire, en gros, est-ce que justement on peut modifier son surf de manière à induire, entre guillemets, « en erreur » l’algorithme. Le problème c’est qu’aujourd’hui les données que peuvent rassembler les data brokers, ces gigantesques agrégateurs de données, viennent de sources infinies. Par exemple on a découvert, lors de l’affaire Cambridge Analytica, que Facebook accumulait des données de santé en masse y compris sur des gens qui n’étaient pas abonnés à Facebook, simplement par le biais, par le truchement des relations qu’elles avaient avec des personnes qui étaient sur Facebook et par les informations qu’on pouvait collecter d’elles au travers de leur navigation sur des pages où il y avait de scripts Facebook.
Par définition, on se rend compte aujourd’hui que la possibilité de ne pas alimenter les profils qui contiennent chez ces data brokers parfois des milliers de paramètres différents sur une personne. Le journaliste du Financial Times qui a fait une grande enquête sur eux, qui portait un titre marrant, il disait : « Ces sociétés sont devenues les étoiles de la mort de la vie privée » en reprenant la métaphore de Star Wars. Le journaliste a découvert dans son profil chez l’un d’eux, je crois que c’était Experian ou Acxiom, qu’il était à risque pour des maladies du rein, chose qu’il ne savait pas et qui lui a été confirmée par la suite par son médecin.
Je pense que le fait de se cacher [devient difficile, voire impossible, Note de l'intervenant] c’était justement le titre du bouquin de Greenwald sur Snowden, Nulle part où se cacher. Je pense qu’aujourd’hui, vu l’ampleur de ces sociétés et vu les liens qu’elles entretiennent les unes avec les autres, cela devient quasiment impossible. J’adhère totalement à l’idée que le microtargeting est toxique. Tant d’un point de vue politique que d’un point de vue sociologique, il est toxique, mais je crois qu’il faut aller plus loin. Aujourd’hui, c’est d’ailleurs ce que réclamait Elizabeth Warren, la candidate démocrate à la primaire, je crois qu’il nous faut sérieusement envisager le démantèlement de ces sociétés. Je précise que les rachats récents de WhatsApp, d’Instagram, ont été faits, je dirais, en mentant à la Commission européenne. Les économistes de la Commission avaient eu l’occasion de s’expliquer en disant « en gros, on s’est fait avoir ». Je pense qu’aujourd’hui ces rachats successifs doivent être véritablement analysés. Est-ce que l’Europe peut, à elle seule, empêcher des fusions ? Oui, ça s’est vu dans le passé. Ça s’est vu dans le passé en particulier pour les turbines d’avion, des deals avec Honeywell n’ont pas pu se faire à la demande de l’Europe entre deux sociétés américaines, au début des années 2000. [Lors du rapprochement prévu entre General Electrics/Honeywell qui aurait eu pour conséquence de créer un quasi-monopole sur les turbines d’avion. L’Europe avait alors pu bloquer cette fusion entre deux sociétés américaines, Note de l'intervenant]. Aujourd’hui empêcher Facebook de racheter sa prochaine proie pour consolider encore plus son pouvoir ce n’est pas de la science-fiction, c’est une possibilité. On en a parlé, le fait aujourd’hui ne plus pouvoir transférer les données des Européens aux États-Unis change la donne. Le magazine Fortune parlait hier d’un possible chaos pour le commerce électrique, je ne sais pas s’il faut aller aussi loin, mais de fait on voit bien qu’on est dans une période où les risques [juridiques et économiques, Note de l'intervenant] par rapport à ces sociétés peuvent venir de l’Europe. Est-ce qu’on doit continuer à faire comme si de rien n’était, comme malheureusement ça a été trop le cas dans les dernières années ? Non. Est-ce qu’on a des instruments ? Oui, et je pense que c’est un des points sur lesquels on doit absolument renouveler la doctrine, c’est qu’on n’a pas, dans la période récente, eu une doctrine de politique industrielle européenne ou française à la hauteur des enjeux. Donc quelque part on s’est, je dirais, confiés – Tariq a eu l’occasion de parler de la France qui s’est vendue aux GAFAM lors de ces 10 ou 15 dernières années.

Sky : Qui s’est vendue ou prostituée ?

Bernard Benhamou : Je ne reprendrais pas le terme, mais je dirais qu’il y a eu une sorte de complaisance et le dernier en date qui a fait encore l’objet de questions9 au gouvernement là-dessus hier, c’est effectivement le Health Data Hub, ce gigantesque agrégateur de données de santé dont même tous les spécialistes disent que c’est un cadeau infini qui vient d’être fait à Microsoft. Monsieur Didier Sicard, spécialiste de l’éthique médicale [ex-président du Comité consultatif national d’éthique], a eu l’occasion de se prononcer récemment là-dessus et beaucoup de parlementaires de tous les bords, y compris de la majorité, se sont déclarés hostiles à ce principe. On doit réfléchir autrement. On ne doit pas simplement essayer d’infléchir un tout petit peu la courbe, on doit se dire que un, nous devons créer une industrie européenne et nous en avons les cerveaux, nous en avons les secteurs, les filières. Yann Le Cun, que citait Tariq tout à l’heure, dirige le pôle d’intelligence artificielle de Facebook, mais on pourrait citer bien d’autres Français dans la Silicon Valley, ingénieurs de très haut niveau. On a largement les talents, simplement on n’a pas articulé une politique comme on l’avait fait dans les années 60/70 sur des secteurs stratégiques aussi bien dans le transport que dans l‘énergie que justement dans le calcul, dans les technologies. On ne l’a pas fait et effectivement il y a une sorte de renoncement progressif, de résignation qui s’est installée. Cette résignation n’est pas une fatalité, du tout ! Du tout.

Tariq Krim : Je peux parler ?

Sky : Permets-toi et prends ton temps.

Tariq Krim : Il y a en fait un paradoxe incroyable c’est que les deux technologies de domination du Web à la fois par la Chine et par les États-Unis ont été inventées en Europe.

Bernard Benhamou : En Europe. En France même.

Tariq Krim : Linux et le Web.

Bernard Benhamou : Et TCP/IP, c’est-à-dire la brique fondamentale de l’Internet, aux dires même de Vinton Cerf, a été élaborée, conceptualisée par un certain Louis Pouzin10, très peu connu des Français, mais qui a été l’architecte des premiers réseaux avec des datagrammes, avec le projet Cyclades, etc. Il a même été récompensé par la reine d’Angleterre pour sa contribution à la création de l’Internet. On se rend compte que nous avons laissé passer, et le Web a été inventé au CERN à Genève dans un laboratoire européen, nous n’avons rien fait de toutes ces technologies.

Tariq Krim : Ce n’est pas qu’on n’en a rien fait. Il faut voir que derrière la technologie il y a des idéologies.

Sky : J’en profite pour poser une question : les plateformes dominantes ont-elles des biais idéologiques ?

Tariq Krim : Justement, historiquement. En ce moment je reviens aux fondamentaux, à l’histoire de la technologie, se dire pourquoi on est là, pourquoi on est là avec des plateformes comme les GAFAM d’un côté et, de l’autre côté, les plateformes chinoises ? Il y a plusieurs choses.
La première c’est d’un point de vue de la technologie : on a deux visions qui se sont toujours opposées.
La première c’était l’idée que la machine sert à augmenter l’être humain, c’est une vision humaniste, c’est Douglas Engelbart11, le type qui a tout inventé, le desktop, la souris, il était à Stanford. Sa vision c’est de dire l’ordinateur, Steve jobs le disait très bien, il disait bicycle for the mind, « un vélo pour l’esprit ». C’est-à-dire que grâce à la machine on était capable de faire plus.
Et de l’autre côté, à peu près à 500 mètres plus loin à Stanford, il y avait John Mc Carthy12, l’un des inventeurs de l’intelligence artificielle, et sa vision c’était « la machine va remplacer le cerveau humain ».
Ces deux visions, en fait, sont tombées court parce qu’il a fallu attendre le Macintosh pour que la vision, on va dire de l’interface, se développe, et il a fallu attendre des années pour que la vision de l’intelligence artificielle décolle.

Sky : C’est-à-dire les pipe-lines de données pour pouvoir entraîner dans l’intelligence artificielle.

Tariq Krim : C’est ça. Et ce qui est drôle c’est que dans une conversation privée que j’avais eue avec un des deux fondateurs de Google, il le dit assez ouvertement – je ne l’ai jamais entendu le dire publiquement – que l’IA c’est quelque chose qu’ils ont découvert. Ils ont découvert, à un moment donné, qu’avec toutes les données qu’ils avaient ils pouvaient faire des choses, ça n’a jamais été quelque chose qui a été pensé. Google était plutôt dans la vision très utilitaire de l’Internet : on a une question, une réponse ; on est capable de répondre, c’était l’Internet de tout ce qui était pratique.
Ce qui s’est passé c’est que d’un point de vue de l’idéologie politique, par contre, on a trois visions : on a une vision américaine, une vision russe et une vision européenne.
La vision américaine c’est la vision des libertariens, c’est celle qui a donné finalement 30-40 ans plus tard Facebook. C’est « en tant qu’individu, l’informatique me donne le pouvoir d’être un individu ». Ce qui est curieux c’est que cette vision a été totalement effacée puisque maintenant le pouvoir d’être individu a quasiment disparu.
Pendant les années 60 c’est fascinant parce que se développe ce qu’on a appelé la cybernétique. La cybernétique se développe notamment chez les militaires parce qu’ils étaient intéressés à l’idée d’automatiser plein de choses, notamment les missiles, et en Russie il y a eu ce qu’on a appelé la cybernétique sociale. Je suis en train de découvrir des choses incroyables notamment cette personne exceptionnelle qui s’appelle Anatoly Kitov13, qui a compris très tôt que la vision de la cybernétique sociale c’était d’algorithmiser le plan quinquennal ; la Russie organisait des plans, planifiait tout, et on s’est dit « on va utiliser la machine pour organiser les gens ». En fait c’était la vision de Facebook et de Google aujourd’hui, 40 ans avant – 40 ans qu’est-ce que je dis, c’était les années 60 –, mais c’est la vision qui a été exportée ensuite en Chine et qui, à mon avis, est un des fondements idéologiques du crédit social. La technologie doit servir non pas à manipuler les gens individuellement, ce qui est le cas de Facebook, mais à construire une forme d’harmonie technologique en identifiant les mauvais et les bons comportements. En Chine on vous dit « tu ne peux pas faire ça, si tu vas tard le soir acheter une bouteille de gin ton crédit baisse ». Cette idée qu’on va gérer l’ensemble de la population, alors que la vision de Facebook est une vision plus libertarienne, c’était l’individu.
En Europe, on l’oublie, dans les années 90 il y a une vision communautaire, cette idée que la technologie doit servir à l’ensemble de la société. C’est une vision qui démarre avec le Chaos Computer Club14 en Allemagne dans les années 80. Linux c’est exactement ça, c’est on développe des choses et on les met à disposition. Je rappelle que le Web c’est « pas de pattern, pas de patent, rien, tout le monde peut l’utiliser ». Donc cette idée que nous allons créer de la technologie qui va servir au bien-être de l’ensemble.
Le problème c’est que cette vision qui est fantastique, qui est une vision…

Sky : Qui perdure !

Tariq Krim : À un moment on a dit « on est nuls, on annule, on va laisser cette vision ».
Ce qui me dérange le plus ce n’est pas tellement la question technologique, la technologie on peut toujours mettre des gens bons, mais pour faire quoi ? Aujourd’hui ce que l’Europe doit montrer, notamment sur les données, c’est comment on construit quelque chose qui est bénéfique à l’ensemble. Et ça, malheureusement, on a échoué ; on a échoué technologiquement, on a échoué idéologiquement, on a échoué politiquement. Il y a plein de raisons, on pourra en discuter, mais on a échoué, pour moi c’est le véritable échec. Et la question de la souveraineté n’est pas uniquement technologique, ce n’est pas de dire « on ne va pas héberger nos données », c’est : est-ce qu’on doit collecter les données ? Pour quoi faire ? Quel est le bénéfice à court terme, moyen terme et long terme ? Et ça c’est une conversation qu’il faut qu’on arrive à faire ouvrir.

Sky : Bernard.

Bernard Benhamou : De la même manière qu’il y a quelques années on a eu des débats sur la bioéthique qui passionnaient non seulement les parlementaires mais même les Français parce qu’effectivement ils étaient capables d’identifier les sujets sur la filiation, sur les manipulations génétiques, ils étaient très vite impliqués. Or, les débats sur les technologies sont plus compliqués à faire comprendre à un large public et pour avoir été de ceux qui ont tenté de le faire, on se rend bien compte de la difficulté, mais je crois qu’on est en train progressivement d’avoir des gens qui demandent à comprendre, étrangement. On parlait effectivement du crédit social, étrangement l’étape d’après maintenant pour le régime chinois, c’est établir une cartographie génétique totale de la population comme a pu le montrer le New-York Times il n’y a pas longtemps. On va donc passer du « crédit social » au « génome social », on va passer, pour les amateurs de science-fiction, de Minority Report à Gattaca, ou un mix des deux. C’est cette dérive que nous devons conjurer. Pourquoi nous, Européens, avons été si méfiants par rapport à la NSA ? Quand je dis nous Européens, plus précisément nos amis Allemands que nous-mêmes Français, sensibles à ces questions, parce que justement il y avait un passé de Stasi, d’écoutes, etc., et sur les manipulations génétiques parce qu’il y avait aussi une idéologie il y a 70-80 ans de ça et qui était terrible par rapport à cette notion de race supérieure, etc. On voit bien que les mécanismes de défense que nous avons développés par rapport à la vie privée n’existent pas du tout de la même manière aux États-Unis ; elle n’est pas du tout codifiée de la même manière, protégée de la même manière. Aux États-Unis, la vie privée était un droit du consommateur. Pour nous Européens c’est un droit fondamental, c’est un droit élémentaire de l’humain.
Eh bien je crois effectivement que c’est cette vision-là qu’on doit justement essayer de faire valoir. Paul Nemitz qui s’occupe des affaires juridiques de la Commission européenne disait « peut-être que la protection des données deviendra pour les années 2010/2020 ce que l’écologie a été dans les années 80 et auparavant ». Au départ, au tout début, l’écologie apparaissait comme politiquement farfelue, aujourd’hui elle apparaît comme indispensable.
De la même manière, ce qui nous paraît encore difficile parce qu’on se dit interdire le micro-ciblage, éviter effectivement ces concentrations de pouvoir infini autour de quelques sociétés américaines ou chinoises puisqu’il y a les deux maintenant, typiquement ça apparaît difficile, mais, de fait, on voit bien que c’est le seul chemin possible. Sinon c’est la tenaille sino-américaine avec d’un côté une dérive totale autour des sociétés qui accumulent les données et, de l’autre côté, un régime chinois qui accumule des outils de surveillance, de contrôle, d’ingénierie sociale, de plus en plus inquiétants. On le voit y compris sur des minorités ethniques, puisque parmi les individus qui seraient le plus directement ciblés figureront…

Sky : Les Ouïghours.

Bernard Benhamou : Exactement, les minorités ethniques et religieuses. On voit bien que là il y a, je dirais, un basculement [politique] parce que, en gros, on voit qu’il y a un risque bien au-delà de la seule sphère économique.

Sky : Je vais me faire l’avocat du diable, donc bingo, un point, c’est un truc entre nous. Le régime chinois du flicage par crédit social, ça va séduire beaucoup de politiciens.

Bernard Benhamou : Ça en séduit déjà ! C’est-à-dire qu’à l’heure actuelle ce que l’on appelle les démocraties illibérales, peu importe, sont effectivement dirigées par des individus qui ont très bien compris l’usage qu’ils pourraient faire d’un système de ce genre. Simplement il se trouve que, je dirais, la Chine a un avantage, entre guillemets, « compétitif » parce qu’elle est capable de le déployer [et de l'expérimenter, Note de l'intervenant] sur un petit peu moins d’un quart de l’humanité. C’est « un angle d’attaque » qui est infiniment plus grand. Mais que des responsables, par exemple dans les équipes de Trump et de Bolsonaro, soient fascinés par des outils de contrôle social ce n’est pas une nouveauté ! Ce n’est pas une nouveauté. Quelque part la volonté d’éteindre toute forme de contestation de manière radicale, voire violente comme ça a pu se faire ces derniers temps.

Sky : En France ?

Bernard Benhamou : En France parfois. Parfois ! Qu’il y ait une fascination technologique, qu’il y ait une forme d’ubris technologique c'est certain, et c’est d’ailleurs peut-être pour ça la raison de la complaisance dont on parlait par rapport à ces sociétés [dont font preuve certains politiques vis-à-vis des ces sociétés, Note de l'intervenant] c’est qu’il y a une forme de fascination pas simplement économique ou libérale, non, c’est aussi une fascination sur les capacités de pouvoir et d’influence [que peuvent donner ces technologies, Note de l'intervenant]. Pour un politique, avoir une influence absolue sur des individus, pour un politique je dirais modestement armé d’un point de vue moral, c’est quelque chose de très tentant.

Tariq Krim : Si je peux me permettre là-dessus, je donne toujours une anecdote. J’étais à la conférence sur l’intelligence artificielle et juste avant que notre président Emmanuel Macron.

Sky : Notre suprême leader.

Tariq Krim : Suprême leader, si tu veux, évoque le sujet, mon téléphone vibre, je prends mon téléphone et c’était une notification de Facebook pour m’annoncer ce que j’allais voir. Je me suis dit waouh !
Le problème du politique et c’est en général vrai aussi pour toute la question du numérique en France — je prends quelques instants mon ancienne casquette de vice-président du Conseil national du numérique — c’est qu'en France le numérique c’est de la comm’ ! Déjà, malheureusement, tous nos ministres ont fait Sciences Po ou HEC, si on ne fait pas ça, on n’est pas ministre et, surtout, on a une vision extrêmement communicationnelle. Donc ce sont les réseaux sociaux, le buzz, le clash. Ce qui est fascinant c’est qu’on leur donne l’illusion de ce pouvoir. Je pense que Facebook, Twitter, les deux d’ailleurs ont choisi, je crois, des énarques comme lobbyistes, mais aussi comme patrons. Ça montre qu’ils avaient très bien compris comment aborder le marché. Mais surtout il y a cette illusion du pouvoir, du nombre de followers, de la course contre la montre et, en fait, ce qu’on fait quand on est politique et qu’on diffuse des messages sur Facebook, on améliore le ranking de ces plateformes, donc en fait on améliore le microtargeting. En ayant l’impression d’avoir un acte citoyen, en tout cas un pouvoir, on oublie qu’en fait on alimente en données, en clics. Le simple fait de regarder, de ne pas regarder, de regarder 20 secondes un discours, tout ça ce sont des informations qui ne vont pas être utilisées par les partis politiques. Si on demande à tous les partis politiques français : est-ce que vous avez des informations très précises sur l’usage de vos internautes ?, ils ne savent pas, par contre Facebook a collecté toutes ces données et va s’en servir derrière pour du targeting publicitaire.
En fait on a aussi un problème essentiel c’est qu’on n’a pas compris. Je pense que tu as dû le faire, on a essayé d’expliquer aux politiques que le numérique va au-delà de la comm’, il faut comprendre l’algorithmie, il faut comprendre un certain nombre de choses assez basiques, il ne faut même pas aller dans les détails.

Sky : Tu as déjà discuté avec Cédric O ?

Tariq Krim : Non, je ne le connais pas. Je l’ai vu sur votre excellente émission.
Ce qui était intéressant avec le CNNum15, le Conseil national du numérique, c’est qu’on voyait beaucoup de politiques, on était censés normalement recevoir les lois avant qu’elles sortent, on devait donc conseiller le gouvernement, on les a quasiment toutes eues sauf la loi sur le renseignement, comme par hasard elle n’est pas passée par nous et c’est là, après, que j’ai compris. On parlait de filière numérique, c’est vrai qu’en France on a quand même une filière sur la surveillance qui est consistante à travers sur les âges. Sur les autres on n’a jamais eu de vision à long terme. C’est-à-dire que dès qu’on a un nouveau ministre ou dès qu’on a un nouveau gouvernement il y a une nouvelle dynamique. En ce moment on a la startup nation qui est plus ou moins, à mon avis, un peu arrivée à la fin.

Sky : La bullshit nation, non ?

Tariq Krim : Je suis un fan, j’ai toujours été fan des startups. Quand j’étais tout jeune j’étais fasciné par Steve Jobs, par Commodore, par toutes ces boîtes d’entrepreneurs, c’était fantastique. Et en France on a ce biais, ce travers, je ne sais pas comment dire, on institutionnalise tout. On a institutionnalisé le rap, la techno, toutes les cultures le plus underground et la startup qui est quand même un truc de rebelles à la base, de gens qui n’ont pas fait d’études, de drop-out, en France c‘est devenu l’inverse, c’est, d’une certaine manière, la continuité d’une forme d’élite sociale où on donne immédiatement à des gamins qui sortent de l’école des statuts de cadre sup. Il y a ça et puis, de l’autre côté, il y a tous les autres qui sont nés du mauvais de l’écran, c’est-à-dire que ce sont des pixels qui déplacent sur Deliveroo, sur Uber, et eux n’ont même pas le droit à la retraite, à des choses basiques. On a aussi construit un système qui montre ses limites.
Aux États-Unis c’est peu normal parce qu’on découvre, avec la crise du covid, que le système explose complètement, même si Amazon est en train de faire une chose assez incroyable, ils ont dit on va faire un système de e-commerce complètement covid free, on va vraiment travailler à optimiser la chaîne de développement et aujourd’hui ils profitent, en trois mois ils ont quasiment annihilé tous leurs concurrents, à part Walmart, il n’y a plus personne qui peut leur faire de la concurrence.
C’est pareil avec Netflix. On sait que le festival de Cannes s'est toujours opposé aux films qui vont passer sur Netflix, on ne les met pas, et cette année on demande à Netflix, Amazon, je ne sais qui d’autre, en streaming, de tout mettre en ligne. On a ce problème : à chaque fois on veut, d’un point de vue politique, avancer dans une direction, donc là la startup nation. Avec Hollande ce n’est pas clair. Je pense que Sarkozy ne savait pas trop, c’était les débuts, mais à l’époque de Hollande on savait pour Snowden, on savait pour les plateformes.

Sky : Pourquoi ? Parce que Axelle Lemaire.

Tariq Krim : Elle, mais Fleur Pellerin aussi. Les deux, en fait, ont eu, je ne veux pas dire un double discours, il fallait dire qu’on fait les choses et en même temps, en coulisses, on a laissé la fameuse ligne rouge dont on parlait, c’est-à-dire des choses qui n’auraient pas dû être faites.
Je vais vous donner une anecdote. Son nom m’échappe, l’ancien patron de l’ANSSI16 qui est maintenant directeur technique.

Sky : Poupard.

Tariq Krim : Poupard c’est maintenant ; celui qui était juste avant lui.

Sky : Celui qui était vraiment coincé, qui se prenait pour…

Tariq Krim : Qui est maintenant à la direction de la DGSE.

Bernard Benhamou : Du renseignement français.

Sky : Il est à la direction de la DGSE lui ?

Tariq Krim : Technique, je crois, directeur technique.

Sky : Technique, heureusement !

Tariq Krim : Il y avait une réunion, on avait discuté et on a parlé de plateformes. En fait, le discours était parfaitement rodé. J’ai eu aussi une conversation avec Poupard. J’ai trouvé les deux excellents sur le discours, j’ai appris que Poupard17 était aussi excellent en crypto, c’est quelqu’un que j’ai trouvé très sympathique, qui, en plus, est vraiment une brute épaisse dans ces domaines, ce n’est pas un touriste, mais leur discours sur la question de la souveraineté, sur la question des plateformes, n’était pas un discours naïf. La première question que je leur pose à chaque fois c’est : est-ce qu’il y a des gens qui vous écoutent ? Est-ce que vous avez la moindre influence ? Aujourd’hui, moi je préférerais que quelqu’un comme Poupard soit ministre du numérique.

Sky : Juste pour l’anecdote, le précédent avant Poupard, je l’avais attrapé à l’École de Guerre, je lui avait posé une question sur les hackers, en gros il m’a dit qu’il n’en avait rien à foutre des hackers. Tu vois le niveau !
Bernard.

Bernard Benhamou : Je crois effectivement qu’il y a eu un problème d’éducation et d’accompagnement du politique par rapport à ces questions. Pour être militant dans ces domaines depuis longtemps, je vois bien les difficultés. Je rejoins l’idée que trop souvent ces technologies ont été vécues comme un outil cosmétique [par nos politiques, Note de l'intervenant]. Donc en lieu et place de mettre une coordination sur les différents sujets clefs – sécurité, éducation, culture, etc. – et d’avoir, comme ça s’est fait sous l’ère Obama, un chief technology officer, c’est-à-dire quelqu’un qui coordonne les technologies fédérales, on a à chaque fois des gens qui ont fonctionné en silos. Par définition on n’a pas une prise en main de ces questions au niveau où elles le mériteraient. Donc on a laissé, effectivement, dériver progressivement ces sujets et surtout on s’est abstenu, voire c’est devenu un mot tabou, le fait de dire « il nous faut créer des conditions de politique industrielle, enfin des actions relevant d'une réelle politique industrielle [dans le domaine des technologies, Note de l'intervenant] ». Tout à l’heure Tariq évoquait les grands entrepreneurs de la Silicon Valley, je citerais une autre économiste, Mariana Mazzucato, qui disait « il n’y a pas une seule des technologies clefs de l’iPhone qui n’ait été, de près ou de loin, financée par des crédits fédéraux américains ».

Tariq Krim : Et français, puisque pendant longtemps les puces STMicroelectronics étaient dans l'iPhone.

Sky : Même Tor18 avait été financé.

Bernard Benhamou : Bien sûr !

Sky : Pourquoi tu rigoles Tariq ? Tu rigoles pour la même chose que moi ! C’est ça ?

Bernard Benhamou : Par définition, on se rend compte que là où aux États-Unis on a créé, aidé des Elon Musk avec des contrats d’État de la NASA [pour Space X, Note de l'intervenant], on a aidé toutes les grandes entreprises à se développer avec des crédits et des commandes fédérales et locales, nous, en France, dès que l’on parle de ça c'est presque un tabou. Le mot que l’on agite maintenant c’est le Small Business Act. Small Business Act c’est l’orientation d’une partie de la commande publique, donc de l’argent du contribuable, vers des petites sociétés, des PME, ce qui se fait aux États-Unis depuis plus de 50 ans. Ce n’est pas compliqué, dès que vous en parlez vous vous heurtez à une vision quasiment dogmatique, certains diraient de l'ordolibéralisme qui est de dire « non, vous êtes en train de vous en prendre à l’équilibre du marché, donc il ne faut surtout pas ». Eh bien non, aux États-Unis cela a fonctionné. Leur interventionnisme est l'un de leurs secrets les mieux cachés. Ils essayent de mettre en avant des figures charismatiques,Jeff Bezos, Elon Musk, anciennement Steve Jobs,Bill Gates, en gommant toute l’action gouvernementale justement pour essayer de leur donner des armes le plus tôt possible pour ça [pour leur développement, ce qui a permis à ces entrepreneurs de créer des empires, Note de l'intervenant].

Tariq Krim : Je voulais juste revenir là-dessus parce que je suis absolument d’accord avec ce point.
Lors d’un débat sur le Health Data Hub, j’avais écouté notre ex-ministre du numérique, Cédric O, parler : « Mais vous imaginez, Amazon ils mettent – je crois qu’il parlait de 20 milliards – dans le cloud par an ».

Sky : Qui est le nouveau ministre ?

Tariq Krim : On ne sait pas.

Sky : 20 milliards dans le cloud.

Bernard Benhamou : Ça a d’ailleurs été repris hier par Véran.

Tariq Krim : Absolument ! « 20 milliards dans le cloud, on ne peut pas s’opposer à ça. »
Je pense que ce sont des gens qui ont une vision libérale à la française, c’est-à-dire qu’ils pensent que le marché est parfait : s’ils sont là c’est parce qu’ils sont bons. On oublie qu’on a enlevé les taxes sur le e-commerce. J’ai un copain qui a fait l‘IPO Initial Public Offering] d’Amazon il y a 20 ans, l’entrée en bourse, ils avaient levé 85 millions. Ce n’est rien ! Ils ont transformé ça en une machine de guerre incroyable. Je pense que Jeff Bezos est fondamentalement aujourd’hui l’entrepreneur vivant le plus impressionnant. Je le préfère à Elon Musk, même si je pense qu’il est très malin et très impressionnant parce qu’il a construit un empire, mais il l’a construit avec l’aide de l’État américain, avec la diplomatie américaine. Je rappelle que la diplomatie américaine demande à Twitter de ne pas mettre à jour, au moment des troubles de la révolution en Iran, le fait que l’État est derrière. Je sais que vous avez fait une émission sur le Cloud Act, mais toute la régulation et la réglementation est faite au service des boîtes américaines.
Eric Schmidt a quitté Google, maintenant il est conseiller du Pentagone, et il a publié, vous pouvez le trouver facilement sur Internet, un document PDF de 80 pages sur le risque de la Chine, puisqu’on est en guerre froide technologique avec la Chine depuis que Trump est arrivé, on l’était un peu mais là c’est un peu plus visible, et c’est fascinant quand vous lisez ce document. Je ne sais pas si quelqu’un en France aurait été capable de faire quelque chose d’aussi bon et surtout on prend conscience du fait qu’on est dans une logique où les États-Unis sont derrière toutes leurs entreprises.

Sky : Ou les entreprises américaines font partie du bras armé de la diplomatie et de la politique extérieure américaine.

Tariq Krim : Absolument. Complètement !

Sky : Est-ce que vous avez lu Raymond Aron ? Un peu ? Non !

Bernard Benhamou : En d’autres temps, oui.

Tariq Krim : Un peu moins.
Je voulais simplement dire que si ces sociétés sont là où elles sont, elles sont là parce qu’elles sont très bonnes, mais parce que la machine américaine, et c’est normal, leur a enlevé toutes les contraintes. Il y a un problème de taxes ? On vous enlève les taxes, on défiscalise.

Bernard Benhamou : Directes. Indirectes.

Sky : Et en échange on garde une petite main à l’intérieur.

Tariq Krim : J’ai posé la question à un ami qui était directeur de la sécurité chez Google, après il est allé chez The Intercept.

Sky : Il était chez The Intercept pour faire des enquêtes ?

Tariq Krim : Non. Il m’expliquait comment ça marche. En fait, chez Google, Facebook, il y a des gens embedded, donc des gens du renseignement, mais ils sont choisis par les headcheers. C’est-à-dire qu’en fait ils ne peuvent pas prendre n’importe qui, ils ont besoin d’avoir des gens habilités, mais ils ont un certain nombre de personnes qui sont là, qui ne reportent qu’au CIO [chief information officer] et qui exécutent les fameuses requêtes FISA [Foreign Intelligence Surveillance Act], les fameuses requêtes qui sont demandées pour accéder à des données, donc ils font ça. Il y a effectivement un contingent de gens. C’est un système qui est un peu limite mais qui est légal. Simplement, ce qu’ils ont fait, c’est qu’il y a des juges qu’on peut appeler à n’importe quelle heure de la journée, on peut leur demander autant de requêtes qu’on veut et ils signent, c’est quasiment automatisé, mais c’est contrôlé. En tout cas, tel qu’on me l’a expliqué, c’est officiel, plein de gens savent. Les employés ne savent pas qui c’est, évidemment, mais les patrons, donc à l’époque Larry Page, Mark Zuckerberg et les autres, savent. Je dirais que d’une certaine manière la relation entre le militaire, le renseignement et l’Internet a toujours été relativement souple !

Sky : Dis-moi, quand tu en repères un, tu gagnes un tee-shirt ou pas ?

Tariq Krim : Peut-être !

Sky : Avec marqué I spot the fed? [« J'ai repéré un agent fédéral », jeu potache à la grande convention de hackers DEFCON, NdT]

Tariq Krim : Il y a des années on est allés dans une conférence de hackers, Hacking in Progress, c’était en Hollande, organisée par le groupe de pirates qui s’appelait XS4ALL, des types fantastiques, on a rencontré plein de gens. Les gens qui faisaient partie de la NSA, parce qu’il y en avait pas mal, devaient avoir un badge orange. Il y en a plein qui n’avaient mis de badge orange, donc il fallait spotter ; à la fin ils ont tous été détectés. À l’époque on avait fait une conférence sur Echelon, un petit truc, on était une quinzaine et il y a trois types qui sont venus, un peu plus âgés et qui nous ont dit « ce n’est pas exactement comme ça ». C’était fascinant. Ce qui m’a toujours fasciné dans la NSA, un truc qui me fascine presque depuis le milieu des années 80, c’est comment on est capable d’analyser autant d’informations, de stocker autant d’informations. Si le savoir-faire de la NSA était utilisé dans les bibliothèques, c’est-à-dire dans une vision un peu plus positive ! C’est incroyable ! Il ne faut pas oublier que NeXT, qui était la boîte de Steve Jobs, dont tout le monde pensait qu’elle était morte, en fait elle vendait toutes ses machines à la CIA, à la NSA, elle n’avait pas le droit de le dire. Quand ils ont été rachetés par Apple on a fini par se rendre compte que ça fonctionnait. Des gens comme Steve Jobs vendait à ces agences. Google a eu des financements puisqu’après le 11 septembre quasiment tout l’argent est parti dans le…

Sky : Contre-terrorisme.

Tariq Krim : Contre-terrorisme et l’analyse sémantique, tous ces outils, tout le monde s’est positionné. D’ailleurs Palantir, d’une certaine manière, a un peu profité de ça. Google aussi a eu des subventions. Il se trouve que le type full discloser, le type qui a créé In-Q-Tel, le fonds…

Bernard Benhamou : Un fonds d’investissement de la CIA.

Tariq Krim : A été un de mes investisseurs quand je faisais Netvibes, c’est devenu le general partner d’Axcel, Axcel qui était l’investisseur de Facebook, de plein d’autres boîtes.
Il y a toujours eu des relations plutôt business parce que, comme vous le savez, aux États-Unis le budget du Pentagone est, je ne vais même pas dire astronomique, donc tout le monde, à commencer par les nouveaux, Palantir et les autres, ce qu’on appelle le nouveau consortium milataro-industriel, n’ont qu’une vue c’est de prendre une part du gâteau. Le projet JEDI [Joint Enterprise Defense Infrastructure] qui devait normalement revenir à Amazon et qui est arrivé à Microsoft, c’était dix milliards.

Sky : Explique ce qu’est le projet JEDI. Juste en gros.

Bernard Benhamou : En gros, ce marché technologique du Pentagone a donné lieu à un procès, ce qui est quand même assez inhabituel de la part d’un géant américain, du fait de leur exclusion manifestement dirigée contre eux par Trump, a porté plainte contre le Pentagone. Vous imaginez : une grande société porter plainte contre le Pentagone et effectivement réussir à geler le marché.

Tariq Krim : Juste pour répondre, JEDI c’était le projet de cloud du Pentagone.

Bernard Benhamou : Sur ces sujets je vous recommande l’excellent ouvrage de Shane Harris qui s’appelle @War, avec l’arobase War sur le lobby militaro-internet aux États-Unis. C’est aussi une belle description de l’histoire des liens entre les deux.
Quelque part, on a spontanément tendance à se dire que c’est mal [que les liens entre militaires et technologies sont forcément toxiques, Note de l'intervenant]. Oui et non ! Que militaires aient été historiquement avides de nouvelles technologies, c’est vrai dans tous les pays. Que les innovations, je citais tout à l’heure les innovations de l’iPhone depuis le tactile, l’intelligence artificielle, le système Siri, etc., aient d’abord été développées dans des enceintes militaires, à des fins militaires, c'est un fait. On rappellera quand même que les premières recherches sur les interfaces en réalité augmentée, étaient destinées aux systèmes militaires de visée dite « tête haute » pour les pilotes d’avion de chasse.
À partir du moment où on a des budgets qui sont hors de contrôle, comme on le voit en ce moment au point qu'on est en train de s’interroger même aux États-Unis maintenant sur le fait que ces budgets soient de hors de contrôle, le problème se pose. Mais que les militaires puissent être, dans le cadre d’une politique industrielle intelligemment conçue, à l’origine et accompagner des sociétés et des technologies dans ces domaines, en tant que tel ce n’est pas choquant. La preuve en est, on rappellera pour ceux qui auraient vécu dans une cave ces 50 dernières années, que l’Internet est né de projets menés par le Département de la Recherche militaire américaine, le DARPA.

Tariq Krim : Il y a 30 ans alors.

Bernard Benhamou : Ceci est une datation que je ne reprendrais pas. Un homme politique français a récemment écrit « il y a 30 ans naissait l’Internet », confondant la naissance du Web et celle de l’Internet.

Sky : Tariq, combien de fois on a essayé de te recruter ?

Tariq Krim : Une fois.

Sky : C’était des Français ou c’était d’autres ?

Tariq Krim : C’était des Français, quand même !

Bernard Benhamou : Quand même !

Sky : Quand même !

Tariq Krim : J’étais à San Francisco avec la personne qui m’hébergeait, un type fantastique qui a été un pionner du MP3, et on avait un serveur, d’ailleurs on avait un nom de domaine assez cool à l’époque, on avait hackers.org, qu’on a perdu.

Sky : En quelle année ?

Tariq Krim : C’était en 1996. On hébergeait le site de Dorothée. Il y a des gens qui sont venus pirater le site, qui ont réussi, ils ont trouvé un rootkit et ils ont effacé plein de choses dont tous mes mails personnels. C’est une époque où j’étais assez sensible à ces questions. À l’époque je travaillais chez Sun Microsystems, une filiale entre Sun et Thomson et les types au-dessus, il y avait Shimomura, Dan Farmer, des gens qui avaient travaillé notamment sur SATAN [Security Administrator's Tool for Analyzing Networks], donc on a essayé de faire le tracé inverse. On s’est rendu compte qu’ils étaient passés par une université au Texas. On avait fait le chemin inverse. Et je ne sais pas pourquoi ça m’a fasciné, je n’avais jamais vraiment fait ça et j’ai passé presque un mois et demi.

Sky : Vous avez trouvé ?

Tariq Krim : Oui. Je vais raconter l’histoire.
Déjà on se retrouve avec le FBI parce que dès lors que ça sort, le FBI était en fait l’équivalent, il travaillait avec Interpol, c’est devenu un truc multi-réseaux parce qu’ils avaient fait ça dans plein d’autres universités. On est venu voir les personnes avec Gilles à l’époque, on a amené les listings, ils nous posaient des questions basiques. Donc on a dit « ils ont hackés tel serveur, ils sont passés sur ce serveur, ils sont passés sur ce serveur » et la personne qui était en face de nous – on était dans une pièce avec évidemment un micro, une vitre sans tain – nous dit « je vous interromps ici, est-ce que ce qu’ils ont fait est illégal ? » À ce moment-là on entend une porte s’ouvrir, quelqu’un arrive et dit I am taking it from there, donc « je prends » et on a retrouvé. La personne était basée au Portugal mais en fait c’était un Français. À la fin je l’ai eu au téléphone, sa mère m’a donné le numéro de son dorm room je l’ai appelé. Finalement je n’ai rien fait ! Qu’est-ce que je pouvais faire ?
Par contre, une personne que je ne nommerai pas parce que malheureusement maintenant elle n’est plus avec nous, avait eu son serveur en France hacké et elle a dit « je vais porter plainte ». J’ai dit « on a tous eu 17 ans, on ne va pas le faire ». Lui si. Suite à ça, la personne qui s’occupait de ça, le policier dont le nom m’échappe maintenant, qui s’occupait de la brigade autour de ça, m’a dit « est-ce que vous voulez faire ce genre de boulot ? » Et je lui ai répondu non.

Sky : Ils ont proposé combien ?

Tariq Krim : On n’en est pas arrivé là, il m’a dit « on aurait besoin de gens comme vous, de limiers ». J’ai dit « je ne suis pas un limier. C’est juste, à un moment donné, quelque chose de personnel qui est devenu une espèce d’obsession ». En plus j’ai appris énormément. J’allais voir les gens au premier étage qui me disaient « est-ce que tu as pensé à ça ? » C’est là que j’ai découvert qu’il y a des gens sur l’Internet qui pouvaient aller deux fois plus vite que la moyenne. On était en 1996, on était vraiment au tout début. Ça m’avait fasciné, mais ce n’était pas mon sujet. J’aimais bien les questions d’intelligence économique, j’en ai parlé de temps en temps, comme ça, avec quelques personnes des services. J’ai découvert après, je me suis beaucoup intéressé à ces questions de hacking et autres et, à un moment donné, j’en ai eu marre. Je me suis rendu compte que si on reste dans ce milieu on ne peut plus vivre, donc je suis reparti sur des choses plus fun, la musique en ligne, le MP3 qui est devenu après le piratage, Napster, toute cette période.
C’était une belle époque ! C’est l’époque qui me manque beaucoup parce que ce qu’on oublie c’est qu’avant l’ordinateur c’était le nôtre, c’était notre machine, notre disque dur, nos fichiers. Il n’y avait personne pour comptabiliser le nombre de fois que j’ai écouté telle musique, ce qui peut d’ailleurs avoir une implication politique ou pas, donc on n’avait pas cette analyse, on était dans un univers où la machine nous appartenait, c’était une forme de souveraineté personnelle. Un jour on a dispersé les choses dans le cloud et des gens avaient accès à ces choses. Quand on développe — et c’est pour ça que je n’aime pas l’idée de simplifier l’algorithmie — quand on développe un projet, ce que j’ai pu faire avec Netvibes19, Jolicloud20 et d’autres choses, on a un pouvoir sur l’utilisateur. Aujourd’hui on peut faire croire à l’utilisateur ce qu’on veut sur un écran. On peut lui mentir, lui raconter des bobards, on peut le manipuler et ça, ça demande, en fait, une véritable forme d’humilité qu’on n’a pas toujours. Je pense que ce qui s’est passé chez Facebook, chez Google et chez d’autres acteurs c’est qu’ils ont, à un moment donné, pété les plombs. Ils se sont dit « on sait mieux que les autres ». Et quand vous regardez les startups, c’est fascinant, vous avez le plus souvent des gens très jeunes et c’est volontaire.
En France, quand vous êtes développeur et que vous restez développeur tard vous êtes un looser, alors qu’aux États-Unis vous êtes ce qu’on appelle un « senior développeur ». James Gosling, qui avait fait le Java, était un senior développeur. J’ai vu des gens qui ont fait des bases de données dans les années 60/70 qui sont toujours bons, leur cerveau fonctionne, ils n’avaient pas envie de manager d’autres gens, ils avaient envie de vivre de leur passion. En France on n’a pas ça malheureusement. Dès qu’on passe ce niveau, il faut qu’on devienne manager. Et là je perds un peu de fil de ce que je veux dire parce que tu me regardes !

Sky : C’était très bien !

Tariq Krim : Je voulais juste revenir là-dessus. Le contrôle. On a perdu le contrôle de sa vie numérique et c’est pour ça que maintenant je parle beaucoup, je ne sais pas si on aura le temps de parler un peu de slow Web.

Sky : Après.

Tariq Krim : On fera ça après, je vais laisser Bernard.
Ce contrôle on l’a perdu et aujourd’hui il n’y a plus aucune autorité de régulation capable de nous redonner ce contrôle.
Souvent, Bernard, tu me dis « tu es nostalgique ». Je suis nostalgique d’un temps où on pouvait aller dans les aéroports sans avoir à passer deux heures avant ou après à se poser des questions, mais je suis aussi nostalgique d’un temps où la machine était un véritable compagnon. C’était un outil de confiance. Ce qui m’a fasciné avec l’ordinateur, quand on est très jeune et on a tous découvert son premier ordinateur, c‘est que la machine ne nous ment pas, la machine fait ce qu’on lui demande. Il y a cette relation unique que l’on construit.
Aujourd’hui, quand on démarre avec son premier ordinateur, c’est en fait un iPhone, on a un outil qui est déjà par définition perverti commercialement. Je trouve ça assez triste pour la génération qui aujourd’hui découvre et qui devrait apprendre qu’un ordinateur ça se démonte, ça se décompile, ça s’analyse et c’est ça qu’il faut qu’on arrive à apprendre à la jeune génération.

Sky : Bernard.

Bernard Benhamou : Je vote entièrement cette proposition. Le principe fondateur de l’Internet c’était le principe du end to end, c’est-à-dire que toutes les machines avaient les mêmes droits, les mêmes devoirs sur le réseau, ce qu’on a appelé par la suite neutralité du Net21. Il se trouve que maintenant on a centralisé le pouvoir autour de quelques plateformes [des GAFAM, Note de l'intervenant]. Donc oui, effectivement, il s'agit d’essayer d'éviter ça. Je dirais que la traduction politique de cette volonté c’est éviter que les GAFAM ne deviennent non pas omnipotents, ce qu’ils sont déjà, mais durablement omnipotents ce qu’ils pourraient être si on n’y prend pas garde.
Je dirais que parmi les sociétés qui sont moins connues des Français, mais certainement plus connues de vos auditeurs, on parlait de Palantir tout à l’heure, le fait que les renseignements intérieurs, donc la DGSI, aient reconduit leur contrat avec une société qui a été financée, conçue avec justement In-Q-Tel, sur les crédits de la CIA et très directement mêlée à l’appareil de renseignement américain et que ce soit cette même société qui ait essayé de gérer les données covid, qui l’a d’ailleurs obtenu en Angleterre, la France a refusé.
Il faut préciser que quand Palantir s'approche des autorités…

Sky : Qu’est-ce que c’est Palantir pour les newbies [débutants] qui sont là ?

Bernard Benhamou : Palantir22 c’est la société fondée pour analyser le big data dans la lutte antiterroriste aux États-Unis. Ce sont eux qui ont été les plus à même de développer un savoir-faire unique auprès de quasiment la totalité des agences de renseignement américaines. Lorsque vous regardez la liste des clients de Palantir, vous avez le gratin du renseignement et des sphères militaires américaines. Que cette société ait été choisie par la France pour les renseignements [l'analyse des renseignements, Note de l'intervenant] antiterroristes en France c’est déjà une erreur, que le contrat ait été reconduit en est une autre. Et là encore, moi je crois que la solution essentielle c’est éviter que ce genre de chose soit possible. C’est-à-dire que ça ne pose pas question dans l’esprit d’un politique de gérer et de faire gérer des données de ce genre – comme on en a parlé pour les données de santé qui sont infiniment cruciales pour les individus surtout en période de pandémie – que ça n’ait pas levé des drapeaux rouges dans l’esprit des gens, c’est la preuve qu’il y a eu une porosité, il y a eu une complaisance, il y a eu une forme effectivement de laisser-faire et je pense qu’il y a des réponses politiques [à apporter pour que cela ne soit plus possible à l’avenir, Note de l'intervenant].
Par rapport à ces mastodontes que sont devenus les GAFAM, qui ont perverti l’esprit pionner du Web et de l’Internet en général, je pense qu’il y a des solutions politiques. Je citerais un politique, qu’on a cité parlant de toute autre chose, en fait ce n’était pas lui, c’était Mauriac, je crois, « j’aime tellement l’Allemagne que j’aimerais qu’il y en ait plusieurs ». Moi je crois que j’aime tellement les GAFAM que j’aimerais qu’ils soient divisés en tout petits morceaux. Ou, pour être précis, que ces sociétés ne puissent pas en permanence utiliser leurs muscles monopolistiques pour empêcher effectivement toute forme d’existence industrielle dans ces domaines.

Sky : Pour cela, il faut un peu de courage politique, c’est ça ?

Bernard Benhamou : Absolument ! Il faut du muscle politique. Je dirais là-dessus que plus les temps se durcissent par rapport aux questions de manipulation des opinions publiques, de radicalisation, plus les politiques qui rechignaient à positionner sur les questions industrielles, de politique industrielle, quand il est question de leur survie à court terme dans le cadre électoral, tout d’un coup ils se révèlent beaucoup plus réactifs qu’on ne l’imaginait.
Là-dessus je dirais qu’on arrive à une période où effectivement l’inaction aura une traduction politique radicale. Et c’est le cas de le dire, radicale !

Sky : Il y a trois/quatre personnes qui nous ont demandé de vous faire parler autour de Aaron Swartz23. Tariq.

Tariq Krim : Je le connaissais pas mal puisqu’on a travaillé à l’époque, quand je faisais Netvibes, il était lié à la création de RSS, le format de syndication des news. C’est quelqu’un que j’ai évidemment toujours apprécié. Il y a plusieurs choses qui sont tristes.
Un, je pense que c’est quelqu’un qui était hypersensible, quelqu’un qui avait une vision humaniste du monde. Quand on parle de MP3, de Torrent, de Big Torrent, ce qui me fascine aujourd’hui c’est que la mémoire du monde, la vraie mémoire du monde, des films, les choses introuvables – quand on est cinéphile Nextflix c’est sympa mais soit ce sont des séries Z de SF avec des scénarios qu’on a déjà vu dans les années 90, soit ce sont des films des années 90 qu’on a déjà vus 50 fois et puis, de temps en temps, il y a une ou deux perles –, mais la vraie mémoire du monde elle est en ligne, elle se cache derrière Pirate Bay, derrière de services comme cela. Lui, par rapport au savoir scientifique, il avait aussi cette vision. C’est une vision que j’ai toujours partagée, parce que je pense qu’à un moment donné dans l’humanité, à un moment t il faut au moins que la moitié du savoir soit librement accessible. Le problème qu’on a aujourd’hui c’est que les brevets et les copyrights durent de plus en plus longtemps et on produit de plus en plus de choses. En fait, d’un point de vue mathématique, le nombre de choses qui sont librement accessibles se réduit.

Bernard Benhamou : On va peut-être préciser comment il a, malheureusement, terminé.

Tariq Krim : Oui, bien sûr.
La deuxième chose c’est que je pense que le MIT, une institution qui est aussi très fortement liée aux militaires.

Sky : Au début ils ont fait les bâtards quand même.

Tariq Krim : Le MIT a mal joué, a vraiment mal joué, je pense que c’est une tâche. Il y a ça, il y a évidemment l’histoire avec Epstein et c’est une vraie tâche. L’Internet a aussi besoin de héros. C’est un vrai héros aussi parce qu’il représente la personne qui était pure et je le pense vraiment ; ce n’était pas un intime mais c’est quelqu’un avec qui j’ai discuté plusieurs fois, que j’ai vu quand j’étais aux États-Unis, qui a quand même monté Reddit, on l’oublie. C’est-à-dire qu’Alexis et toute la bande c’étaient les tchatcheurs et c’était lui, en fait, qui délivrait le truc, qui est devenu aussi un produit ; il avait cette vision pure et je pense qu’il n’aimerait pas trop ce que c’est devenu.
On a besoin de héros. On a d’un côté Snowden aussi. Il y a plein de gens. Je suis fan de The Mentor qui était le manifeste hacker et Tron aussi qui était mon hacker préféré, un Allemand qui avait cracké le GSM dans les années 90, qui était aussi une personne pure, c’était un génie qui avait vraiment le cœur pur. Lui avait cette vision du savoir technologique, l’idée que la technologie doit être au service… non pas de l’humain. Mon père me le dit toujours : « Quand tu as un talent particulier dans la vie, que tu es très bon dans un domaine, si tu ne l’utilises pas pour rendre le monde meilleur en fait tu es un peu un pauvre type ». Malheureusement beaucoup de gens sont géniaux et qui font des trucs ! Et ce n’était pas le cas de Aaron, c’était vraiment quelqu’un d’incroyable.

Sky : Bernard, comment il a terminé ?

Bernard Benhamou : Malheureusement, et c’est pour ça que je dirais que c’est un héros foudroyé, écrasé, dans son trajet, qui s’est suicidé.

Sky : Qui a été poussé au suicide.

Bernard Benhamou : Voilà ! S’est-il fait suicider ?, on ne peut pas le dire ainsi, mais on peut dire simplement qu’il a été acculé, effectivement, à cette solution extrême alors même que sincèrement tous ceux qui ont eu l’occasion de l’approcher ! Un de mes amis le connaissait très bien, un certain Larry Lessig24.

Sky : Qui a failli être juge, mais qui a refusé.

Bernard Benhamou : Voilà. Tout à l’heure Tariq parlait des commons, ces communs comme on dit maintenant en français, c’est-à-dire ce patrimoine librement accessible sur internet, Swartz y a beaucoup participé. Lessig a créé les Creative Commons25 qui ont permis justement de desserrer un peu le carcan autour du copyright américain.

Sky : Lessig était un peu le parrain d’Aaron.

Bernard Benhamou : Absolument. Il a été véritablement écrasé par son décès. Sans trahir de secret, il y a deux périodes où je l’ai vu particulièrement déprimé : d’une part après le décès de Aaron Swartz et effectivement après l’élection de Trump.
Je précise qu'à l'origine Lessig était juriste, constitutionnaliste, il est devenu un des experts de la régulation des réseaux, c’est vraiment quelqu’un de remarquable. Il a enseigné à Harvard et à Stanford. Par la suite il en a eu assez, justement du fait de l’évolution de cette industrie [sur les questions de propriété intellectuelle, Note de l'intervenant].

Sky : Il a fait une marche.

Bernard Benhamou : Il a fait ça et surtout il est allé s’occuper de lutte contre la corruption aux États-Unis, ce qui est un vaste sujet y compris dans le domaine politique, c’est-à-dire dans le financement du système politique américain.
On voit là des trajets un peu parallèles entre la pureté technologique et la volonté justement humaniste d’un Swartz et effectivement le juriste qui devient un expert de l’Internet et qui, par la suite, a besoin d’aller exprimer un autre combat [politique].
Pour être tout à fait sincère je le regrette. Sur le domaine des technologies je crois qu’il aurait pu continuer à nous apporter beaucoup, mais il est vrai que la noblesse du combat qu’il a aujourd’hui contre la corruption est tout aussi importante.

Sky : Pour résumer trivialement son histoire, Aaron a essayé de mettre le savoir du MIT en ligne. Il trouvait que c’était un peu scandaleux de payer 50 000 dollars pour ça alors que la connaissance doit être libre. Il a installé de quoi copier, mettre en ligne et ça n’a pas plu. Ensuite il a été poursuivi. Il n’était poursuivi que pour ça. Il a été poursuivi, il a claqué les millions de dollars qu’il avait pour se défendre, il en a eu marre et voilà !

Tariq Krim : Je crois qu’il est tombé sur un procureur qui était assez dur, qui n’avait pas, en fait, estimé le risque de fragilité et puis surtout, il a eu le sentiment, j’en parle par le biais d’un autre ami au MIT qui m’a parlé, il avait le sentiment d’être un peu abandonné y compris par les gens qui l’ont soutenu. Mais, en même temps, je comprends ce par quoi il est passé. On a tous été un peu des pionniers et aujourd’hui ce qu’on voit tous les jours, quand on voit ce que l’Internet devient, ce que le discours sur l’Internet devient !
Dans les années 95/96, quand l’Internet arrive en France et que les politiques ne savent pas trop, eh bien ceux-là ont souvent une vision plus juste du débat. Quand on voit aujourd’hui les débats sur la loi Avia, la loi sur le renseignement, sur le pseudonymat, c’est-à-dire qu’on revient, en fait, sur les mêmes choses et ça a un côté un peu déprimant.
Je m’étais très impliqué sur la loi DAVDSI [Droit d'auteur et droits voisins dans la société de l'information], donc la loi avant, puisqu’on avait réussi à faire sauter la loi, elle a été revotée, je me suis retrouvé convoqué par Sarkozy, sa directrice Emmanuelle Mignon à l’époque, pour essayer de parler de MP3. Quand on voit ce qui s’est passé après avec l’Hadopi [Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet], on a l’impression, en fait, que ce sont des sujets qui reviennent en permanence. Je vais très honnête, parfois je ne comprends pas pourquoi. Le débat sur la haine sur Internet, le débat sur le pseudonymat, enfin l’anonymat qui apparemment revient, ce sont des faux débats. Les vrais débats c’est comment on construit des infrastructures et des outils.
Cette pandémie, donc cette crise du covid, a montré qu’en France on a un problème d’infrastructures et d’outils. J’ai appris par un ami qu’apparemment le CNED [Centre national d'études à distance] utilise une techno américaine qui s’appelle Blackboard, il est probable que les gens ne savent pas que les données sont aux États-Unis.
Si on avait des infrastructures, des outils, et qu’on dise aux gens débrouillez-vous, organisez-vous. Ce qui est incroyable avec les hôpitaux c’est que pendant que le sommet était complètement paralysé – des réunions de crise, les « powerpoint-ites », etc., l’hôpital a géré les choses, il a géré au jour le jour. Si on avait des infrastructures c’est-à-dire du haut débit, des outils et de la formation suffisante qu’on puisse donner aux gens, on pourrait, en fait, laisser les gens se débrouiller et construire quelque chose de décentralisé. Cette idée pour moi est très importante. Au lieu de faire une startup nation, il faudrait qu’on fasse une infrastructure nation, qu’on investisse l’argent que l’on a à construire une infrastructure qui soit stable, qui soit sur le long terme. J’espère qu’on parlera un peu de slow Web après, mais pour moi le rôle de l’État c’est de ralentir le temps.

Sky : On va en parler maintenant. Alors ?

Tariq Krim : Si on part du parallèle que Google est le Mac Donald de la pensée, donc il faut autre chose, il faut du bio, il faut repartir sur quelque chose. On est, en fait, ce que l’on mange. Aujourd’hui, ce qu’on consomme numériquement, c’est assez peu digeste. C’est dépression, la dépression ce sont les teen-agers. Il y avait un article qui est sorti dans The Atlantic qui était terrifiant quand on voyait les gamins qui sont en permanence sur Instagram et désormais sur Tik Tok à se comparer à une vision, une fausse vision de leurs amis, cette idée qu’on est en permanence jugé. Il faut repenser les choses. Ce qui me plaît avec le mouvement du Slow Food qui est né en 1989 en Italie, contre l’arrivée de Mac Donald à Rome, c’est comment on cultive, donc comment on fait grandir les produits, comment on les cuisine, et surtout la convivialité de les manger ensemble. Je me rappelle ces dîners que j’adore quand on dîne avec des amis et on parle trois heures, quatre heures, le dîner dure toute la nuit. Cette convivialité, finalement, doit se traduire aussi dans le logiciel. C’est-à-dire que les données que l’on fait grandir il faut déjà les minimiser, la manière dont on fait les produit et la manière dont on les sert et l’expérience doit être différente.
Le slow Web ce sont quatre idées.
La première c’est le fait qu’il y ait une transparence. Le logiciel que l’on a aujourd’hui n’est pas transparent. Quand je prends Facebook et que je like une photo, j’ai l’impression que l’action que je fais c’est liker une photo et la personne dont j’ai liké la photo va recevoir une notification « vous avez été liké par Tariq ». La réalité c’est que derrière il y a plusieurs algorithmes, notamment le EdgeRank qui va faire : « Ah ! il like plus souvent telle personne, donc je vais changer l’organisation. Ah ! j’ai analysé la photo avec une IA, il y a un chien, je vais lui vendre des croquettes pour chien. Ah ! Tiens ! Il a envie d’aller en voyage je vais analyser tel chat ». En fait, il y a peut-être 30/40 choses qui vont se faire avec une simple action. Cela n’est pas visible par l’utilisateur. Le minimum ça serait que l’on dise « l’ensemble des choses que vous voyez a été choisi par un algorithme. Elles ne sont pas là par le biais du hasard ».
La deuxième chose c’est la non-manipulation, ce qu’on disait tout à l’heure c’est qu’avec le design, ce qu’on appelle les dark patterns, l’idée d’obliger les gens à faire certaines choses, c’est un vrai problème. C’est un problème éthique, c’est un problème qui est connu, c’est d’ailleurs une chose qu’utilise de plus en plus l’État. Quand j’avais signé « contre » au référendum, j’étais opposé évidemment à la vente d’Aéroports de Paris, je me suis rendu compte qu’il fallait écrire en majuscules et il fallait utiliser l’ordre exact de sa carte d’identité, mais ce n’était pas indiqué. Quand j’ai voulu me faire rembourser ma carte Navigo, je ne sais pas si quelqu’un a réussi à se faire rembourser sa carte Navigo, j’ai vu le système et je me suis dit « si on ne veut pas faire quelque chose en ligne, qu’est-ce qui se passe le jour où il n’y a plus de bureaux physiques pour faire les choses ? »
Ce qui m’énerve avec le discours qu’on entend, « il faut mettre tout le monde sur Internet », il y a des gens qui ne sont pas sur Internet parce qu’ils ne veulent pas. Feu ma maman avait des problèmes, envoyer un e-mail à l’administration c’est quelque chose qui la stresse. Elle a besoin de voir quelqu’un qui lui dit « c’est bon », il y a un tampon, c’est fait. Il y a plein de gens qui n’acceptent cette idée que virtuellement on discute avec une autorité et les outils dont on dispose n’ont pas ça.
La troisième chose c’est le mode incognito, ce dont on parlait tout à l’heure. Quand j’avais un iPod ou un baladeur MP3, il n’y avait pas un algorithme pour me dire tu vas écouter cette chanson. Si j’ai envie d’écouter une chanson débile sous la douche tous les jours, 50 fois, je n’ai pas envie que la plateforme le sache. On doit être capable de dire « on stoppe ».
et la quatrième chose, un truc qui est assez récent, eh bien c’est simple c’est le droit de terminer une relation, le droit de dire « je pars, c’est fini ». Un copain me disait qu’apparemment, quand on veut se désabonner de Sky, l’équivalent de Canal+ en Angleterre, il faut passer une heure au téléphone avec quelqu’un. Aujourd’hui on devrait dire « au revoir ».

Sky : Et rends-moi mes données.

Tariq Krim : Efface mes données et donne-moi mes données. Mais cet acte, cette action qui est assez simple, on a l’impression d’avoir perdu. Quand quelqu’un part on a l’impression d’avoir perdu. Il faut gagner, il faut prendre le maximum à l’utilisateur.
Ça c’est la quatrième chose et ces quatre choses ce sont des conseils de design, mais je me dis que les applications, par exemple des applications comme DuckDuckGo, ce qu’on fait aujourd’hui : j’ai une petite plateforme qui est plutôt un side project, qui s’appelle Polite26. Il n’y a plus de trackeurs, c’est la plateforme telle qu’on voudrait la voir : tu as accès tes données, tu fais ton truc, ça coûte 5 euros, ça pourrait être gratuit, mais ce n’est pas le modèle. Et si tu veux partir, tu cliques, on efface tes données. Ça devrait être le modèle standard, mais ça ne l’est pas parce qu’aujourd’hui on considère que le modèle de la monétisation, du behaviouring est plus rentable parce que ce modèle est un modèle qui permet de prendre très vite à une personne, alors que l’Internet est là pour for ever.

Sky : Bernard.

Bernard Benhamou : La-dessus, sur ça, on ne peut qu’être d’accord. Je ne vais pas revenir sur le débat sur l’apparente gratuité de l’Internet qui effectivement s’est faite au détriment des utilisateurs.

Sky : Si, on aimerait bien que tu y reviennes.

Bernard Benhamou : En gros, il y a eu une période où les gens se sont dit « est-ce qu’on peut installer ce qu’on appelle maintenant un paywall, c’est-à-dire faire payer les gens pour accéder à des contenus » et le choix instinctif de tout être normal en situation d’avoir à choisir c’est effectivement de ne pas payer. Le problème c’est qu’en ne payant pas on a laissé progressivement se créer ces mégas, ces gigas bases de données, de profilage et surtout donné lieu à un business [de la gestion des données personnelles via les data brokers, Note de l'intervenant] qui est totalement opaque. Les activités de ces data brokers sont évidemment contraires à la loi européenne, au Règlement sur la protection des données, mais on n’a pas voulu analyser comme tel. Ainsi, au lendemain de l’affaire Cambridge Analytica, Mark Zuckerberg lui-même, interrogé par la très remarquable Kathy Castor, la représentante de la Floride – je vous invite tous à regarder cette vidéo, c’est un moment d’anthologie dans la maîtrise politique du sujet comme rarement on a pu le voir – eh bien Mark Zuckerberg a été obligé de dire « oui, nous allons cesser toute forme de relation avec les data brokers » parce qu’effectivement le risque de dissémination des données était devenu beaucoup trop grand.

Sky : Il transpirait ce jour-là, il était rouge.

Bernard Benhamou : Il transpirait. On voyait surtout que c’était une des pires journées de sa vie et cela se sentait. C’était une audition non pas au Sénat mais à la Chambre des représentants. Remarquable !

Tariq Krim : Alexa a pris quand même 5 ou 7 % après.

Bernard Benhamou : Voilà ! Le problème c’est que tant qu’on ne s’attaque pas au cœur, c’est-à-dire au modèle économique de ces sociétés, tant que nous restons inertes en nous lamentant sur notre virginité perdue, il ne se passe rien ! Il faut dire à un moment donné, comme l’ont dit des parlementaires dans de nombreux pays, pas uniquement en Europe, il y a un moment où ce type de comportement industriel devient [et doit être déclaré, Note de l'intervenant] toxique.
On parlait tout à l’heure des contenus radicaux et de Zeynep Tufekci, la sociologue qui parlait de la radicalisation algorithmique. Google n’est évidemment pas complice du djihadisme et des contenus les plus extrêmes qui peuvent, parfois à son insu, être présents sur sa plateforme, mais il y a une forme de convergence d’intérêts toxiques. Ce que démontre justement l’ouvrage de Tufekci c’est qu’en gros, plus vous restez longtemps, plus ça rapporte d’argent par définition, à une plateforme qui vit sur la publicité. Donc s’ils remarquent que des contenus extrêmes font que les gens restent « collés », deviennent addicts, par définition, leur algorithme aura tendance à privilégier ces contenus [dans les recommandations suivantes, Note de l'intervenant].
Tout à l’heure Tariq parlait d’Eric Schmidt l’ancien patron de Google qui écrivait il y a quelques années, en gros, que les sociétés comme la sienne avaient vocation à remplacer les États, en disant que les États sont devenus lourds, lents, incompétents, « globalement nous aurons vocation à les remplacer ». Les gens au sein des appareils d’État qui entendaient ça à l’époque souriaient. Aujourd’hui ils ne sourient plus !

Tariq Krim : Maintenant ils sont chez Google ou Facebook. L’un des cocréateurs du Patriot Act est maintenant chez Facebook !

Bernard Benhamou : Par définition, on voit bien qu’il n’est plus possible, comme par le passé, d’envisager de façon neutre le paysage industriel dans ces domaines. Si on ne comprend pas que ces sociétés sont devenues trop puissantes pour ne pas répondre à des impératifs politiques, c’est-à-dire en clair, je dirais à des impératifs démocratiques.
Regardez ce qui s’est passé à Toronto. Toronto c’est un bon exemple. Vous avez une filiale de Google à Toronto, qui s’appelait Sidewalk Labs, qui a voulu mettre en place la ville intelligente dans un des quartiers de Toronto. Ce n’est pas compliqué, ça ressemblait exactement au crédit social chinois. Quand vous regardez dans le détail, il s'agissait de systèmes de prime aux comportements vertueux et, au contraire, de sanctions pour des comportements qui ne seraient pas vertueux au sens où Google l’entendrait. Au bout d’un moment les citoyens de Toronto ont dit « nous n’avons pas voté pour le patron de Google, ce n’est pas à lui de diriger nos vies ».
Ce qui était vrai pour ce quartier de Toronto doit être vrai, je dirais au minimum pour l’Union européenne voire plus, c’est-à-dire que nous n’avons pas à laisser les sociétés qui ne répondent pas à l’intérêt général se prétendre garantes de ce même intérêt général Vous vous souvenez du slogan de Google don't be evil, « ne faites pas de mal ». À l’heure qu’il est on peut se poser sérieusement la question de savoir tout le mal qu’ont pu faire ces sociétés, Facebook la première, je dirais à quasi égalité avec Google. On ne peut pas laisser ça et je pense que là où nous nous rejoignons avec nos angles de vue différents sur la question, avec nos expériences de vie, c’est qu’à un moment donné ces questions deviennent hautement politiques.
Je citais tout à l’heure Larry Lessig qui a créé cette phrase devenue célèbre Code is Law.

Sky : Qui est un monstre, d’ailleurs.

Bernard Benhamou : C’est une personne que j’ai eu grand plaisir à faire connaître en France et en Europe. Ce n’est pas compliqué. La phrase suivante, lors d’un débat que l’on avait eu avec lui à Science Po à l’époque, c’était Architecture is Politics c’est-à-dire que l’architecture du code, un peu comme l’avait dit Eric Raymond dans son ouvrage La Cathédrale et le Bazar, que le code devient porteur de valeurs politiques.

Sky : Si on n’audite pas le code on est coincé.

Bernard Benhamou : Exactement. Ça c’est le propos d’un autre grand spécialiste de ces questions, Frank Pasquale, qui a écrit The Black Box Society, « La société boîte noire » : il nous fait auditer le code, il ne faut pas laisser les gens qui ont une vision purement économique. Tout à l’heure Tariq parlait des deux types d’algorithmes qui sont l’un censé augmenter l’interaction et l’autre censé la contrôler, on voit bien que la chose est totalement biaisée et que la main gauche qui va récupérer de la puissance marketing ne sera jamais handicapée par la main droite. C’est ce que montre Zuckerberg tous les jours dans son incapacité à réformer, je dirais, ne serait-ce que les propos de haine sur la plateforme, mais on pourrait le dire bien au-delà sur la publicité politique. Ce qu’a fait Jack Dorsey sur Twitter, Facebook s’y oppose avec la dernière des énergies, sauf à y être contraint. On a vu que même Unilever, même Coca-Cola, même les grandes marques américaines qui se sont coalisées, qui ont envisagé un boycott de la plateforme, n’arrivent pas à faire plier Facebook. Je précise, prenez vos carnets et vos crayons, je crois que c’est le 27 juillet qu’il y a la première audition de tous les patrons des GAFA par rapport à l’antitrust américain, on va effectivement voir où la chose mène. On se rend compte que même aux États-Unis la puissance cumulée, la puissance politique et économique cumulées de ces plateformes devient intolérable, ce qui avait mené en d’autres temps la fragmentation de sociétés comme AT&T à l’époque ou historiquement Exxon avec la Standard Oil.

Sky : Google a pris les devants avec Alphabet. Tariq.

Tariq Krim : J’avais deux petits points. Le premier c’est quand on dit qu’il faut réguler les algorithmes ou il faut les auditer, encore faut-il les comprendre !

Bernard Benhamou : Et ce n’est pas du tout évident !

Tariq Krim : J’ai une théorie sur ce que j’appelle les suprémacistes numériques, c’est une vision politique qui se traduit maintenant par ce que l’on appelle le néo-féodalisme, c’est la vision un peu à la mode dans la Silicon Valley, c’est de dire qu’on revient aux temps des seigneurs, le seigneur est tout puissant, il lève la dîme, mais il protège aussi, évidemment cela face à l’État-nation.
On revient au tout départ, à ce combat entre les gens qui voulaient la vision humaniste, augmenter les compétences humaines et les remplacer. Pour ces gens-là le monde est une équation mathématique qu’il faut optimiser. Quand on optimise la démocratie à la fin on arrive à un modèle dont on parlait tout à l’heure, soit ce qui a été fait à Toronto, soit ce qui se fait quotidiennement en Chine. Ça c’est un premier point.
Sur la question de casser les Big Techs, moi j’ai une vision un peu différente. Aujourd’hui, un, déjà je pense que ça ne va pas se faire parce que les États-Unis veulent conserver des puissances très importantes, mais surtout je crois que l’ensemble de ces sociétés se sont préparées à être cassées. Je donne un exemple tout bête : si demain Amazon Web Services est séparé d’Amazon, ça devient instantanément la dixième dans le top 10 des boîtes les plus profitables. Ce qui s’est passé pendant longtemps c’est que les profits qui étaient faits par Amazon Web Services – on l’oublie, mais Amazon Web Services est né du fait qu’Amazon avait des pics de connexion énormes pendant des moments très précis, Black Friday et autres, et que le reste du temps ils avaient de la puissance massive, donc ils ont décidé de la mettre à disposition des autres, notamment leur concurrent Netflix entre autres – donc pendant longtemps les profits d’Amazon, puisque c’est un web services, les gens payent pour transférer leur informatique sur le cloud donc c’est extrêmement profitable, servait à financer une chose chez Amazon : l’oxygène du e-commerce que sont les frais de livraison. On s’est retrouvé plusieurs fois avec des Black Fridays, les fameux jours où on solde, donc le jour de l’année où vous vendez le plus de produits, avec 90 % des frais de livraison qui sont offerts. Si Amazon les offre, tous les autres sont obligés de le faire et tous les autres tirent la langue. Ce qui passe maintenant avec Amazon c’est qu’ils ont une nouvelle entité qui fait de la publicité, qui est désormais numéro 3 derrière Facebook et Google aux États-Unis, qui a maintenant suffisamment d’argent pour alimenter cette stratégie d’Amazon, donc si on sépare Amazon Web Services elle va devenir une société très profitable.
Pour Facebook c’est un peu plus difficile, mais ils ont déjà commencé à réfléchir en interne à cette question de séparer les entités.
Pour Google, ce serait évident de séparer Android du moteur de recherche. Alphabet, d’une certaine manière, a été la façon de préparer ça.
La société qui est plutôt mal en point face à ça c’est Apple, c’est-à-dire que dans cinq ans, quand ils auront une entité de services qui gagnera suffisamment d’argent pour séparer le hardware, parce que Apple est avant tout une société de hardware.

Sky : Était.

Bernard Benhamou : Plus maintenant.

Tariq Krim : Était avant tout, ils commencent à l’être, d’ailleurs maintenant ils font des téléphones.

Bernard Benhamou : Les services constituent une part importante de leurs revenus aujourd'hui.

Tariq Krim : Ce qui est intéressant c’est qu’aujourd’hui ils font des téléphones pas chers, entrée de gamme, parce qu’ils vont passer dans le service. Le problème, ça c’est une chose sur laquelle la Commission européenne aurait dû travailler depuis des années, quand on vend un produit sur l’App Store, quand vous êtes une boîte et que vous faites 30 % de marge ce n’est pas mal, mais dans le monde d’Apple les 30 % vont à Apple et vous vous débrouillez avec le reste. Et on a laissé ça pendant dix ans, on a fêté les dix ans de l’App Store. Pareil avec Google. On a donc laissé quasiment un hold-up avec des bandits de grand chemin qui ont ponctionné cet argent. Apple est la société qui, à mon avis, dans cette idée où on séparerait, n’est pas encore prête ; dans cinq ans elle le sera, mais aujourd’hui elle ne l’est pas. Moi je ne crois pas que quiconque, aux États-Unis, osera toucher à ces sociétés. C’est dommage parce que le vrai sujet c’est qu’on devrait le faire non pas parce qu’on est anticapitalistes, mais parce qu’on est justement capitalistes et qu’il faut laisser de nouvelles sociétés émerger. Aujourd’hui c’est impossible, vous ne pouvez rien faire.

Bernard Benhamou : On pensait la même chose justement par rapport aux télécoms, et on avait un monopole sur les communications longue distance qui était tel qu’effectivement, à un moment donné, la question s’est posée. Je rappelle que les lois antitrust portent le nom d’antitrust aux États-Unis, Sherman Act pour les plus juristes d’entre vous, antitrust parce que la Standard Oil n’était pas une société, c’était un trust. En gros, ce que j’essaie de dire, c’est qu’aujourd’hui faire des lois antitrust spécifiques pour Google, pour Facebook est une chose possible. Est-ce qu’on le fera à horizon prévisible court ? Non. Il faut être très clair aujourd’hui la capacité d’étouffement de ces sociétés – tout à l’heure il était question d’oxygène par rapport à tel ou tel secteur d’activité – par rapport à leur écosystème est devenue telle que tout l’écosystème industriel se rend compte qu’il doit payer. Tout à l’heure on parlait d’une dîme, d’une taxe. En gros, pour exister aujourd’hui tant commercialement qu’en termes marketing, on doit payer la taxe à des grands acteurs qui, effectivement, vous permettent d’exister. [Ces sociétés peuvent se comporter en prédateur par rapport à la quasi-totalité des acteurs économiques, Note de l'intervenant].
Demandez à la presse, nous sommes tous consternés [de voir à quelle point elle est devenue dépendante de ces plateformes, Note de l'intervenant].

Sky : À la quoi ?

Bernard Benhamou : La presse, en particulier la presse locale qui a connu une décrue dramatique dans tous les pays occidentaux. À un moment donné, tous les acteurs par exemple de la presse magazine en France vous disent : « Si nous devions rentrer en conflit avec Google sur Google News ou avec Facebook, c’est 40 % de notre chiffre d’affaires qui s’en va, de notre trafic et de notre capacité de valorisation. » Donc, par définition, c’est évident que la chose est dangereuse, cela crée un rapport de féodalité. Rappelons pourquoi la loi antitrust a été créée, c’était pour éviter de se plier devant de nouveaux féodaux. Ceux qui l’avaient créée disaient : « Nous avons effectivement réussi à nous à sortir de l’emprise des griffes d’un roi ce n’est pas pour tomber aujourd’hui sous l’emprise de quelques barons industriels ». On est, je dirais, au début de la crise globale par rapport à ça. Est-ce qu’elle aboutira ? Si demain Elisabeth Warren devait être patronne du Département du Commerce ou, pire encore pour ces sociétés, du Département de la Justice, tous les paris seraient ouverts. Je dirais que l’hyper-concentration à laquelle on a assisté devient toxique globalement pour l’économie et y compris pour l’économie américaine.
Certes, je suis d’accord avec Tariq, le gouvernement américain souhaite conserver ses champions, mais est-ce que tous les autres accepteront durablement la taxe des 30 % pour les applications ou, effectivement, la taxe publicitaire sur l’ensemble de leurs activités ? Ça c’est beaucoup moins évident, y compris même à l’intérieur des États-Unis.

Sky : Tariq, tu veux rajouter juste un mot.

Tariq Krim : Juste un mot.
Je pense qu’on a un problème de timing. Tout ça était vrai avant la crise du covid et on se trouve dans une situation qui est un peu compliquée. Le covid a accéléré la transition numérique de cinq ans, dix ans peut-être, il y a des choses qu’on ne faisait pas avant, qu’on fait. Et Biden, s’il est élu, aura un autre problème, c’est qu’il va avoir 40 millions de chômeurs, il est dans un État qui est en déliquescence totale, donc il aura d’autres problèmes et je pense que pour les quatre ans, voire possiblement les huit ans qui viennent, ces gens n’auront pas la capacité de faire tout ce qui doit être fait et qui, je pense, aurait dû être fait. Ça pose la question de ce que l’Europe peut faire, ce que l’Europe veut faire.

Bernard Benhamou : Doit faire.

Tariq Krim : Ce que l’Europe devrait faire, doit faire aussi, et là c’est vrai que là on a un problème de lisibilité parce que ces questions ne sont pas…

Bernard Benhamou : Sans être particulièrement sévère par rapport à nos voisins Britanniques, le départ des Britanniques de l’Union, s’il devait se réaliser.

Sky : Double peine.

Bernard Benhamou : Leur départ serait peut-être une chance sur les questions de régulation vis-à-vis des GAFAM. On parlait tout à l’heure de Small Business Act en Europe, ceux qui ont été particulièrement hostiles par rapport à cette notion ce sont justement les Britanniques. Effectivement sur la régulation du marché, les actions antitrust, je pense qu’on pourrait aller plus vite désormais. Je crois qu’il y a une opportunité par rapport à cela qui méritera d’être jouée. En tant qu'ancien négociateur européen qui a eu l’occasion de beaucoup œuvrer et de voir les difficultés de se coordonner à 27 à l’époque, sincèrement je crois qu’on est face à un changement et l’Europe se rend compte que la naïveté qui a été la sienne par rapport aux deux blocs, chinois et américain, devient hautement toxique [pour sa survie même, Note de l'intervenant].

Sky : Est-ce que c’était de la naïveté ou non, parce que ça me partait quand même un peu…

Bernard Benhamou : Qu’il y a eu des gens…

Sky : Des lobbyistes… Avant, juste avant.

Bernard Benhamou : Je me souviens des propos de Michel Rocard, il y a quelques années, qui disait : « Je n’ai vu un lobbying aussi violent que sur les questions de data à Bruxelles ». Donc qu’il y ait, sur les sujets que nous évoquons, des tentations d’influence, c’est évident. Mais parmi ceux qui ne sont pas manipulés, qu’il y ait effectivement une forme de passivité, une forme de résignation sur le mode « de toute manière on ne peut pas faire sans eux ». Quelqu’un a d’ailleurs fait récemment, je crois que c’est dans le Journal du Net, une typologie des acteurs du numérique qui étaient pour ou contre la souveraineté numérique et on voyait les opportunistes, les militants, j’étais bien sûr du côté militant ; on voyait effectivement les types de discours que ça génère. Il y a cinq ans, quand nous avons créé l’Institut de la souveraineté numérique, on nous disait « mais qu’est-ce que c’est la souveraineté numérique ? » C’était un think tank privé – je sortais de mes fonctions de délégué interministériel, ce n’était pas du tout une structure publique, on s’est regroupé à quelques-uns, Tariq nous a rejoints dans notre conseil scientifique – pour réfléchir à ces questions, sur les questions de relations internationales par rapport au numérique et par rapport en particulier au numérique européen. Il se trouve qu’aujourd’hui tout le monde parle de souveraineté numérique, pas simplement Thinkerview, tout le monde parle de souveraineté numérique.

Sky : Nous, ça fait longtemps qu’on en parle. Depuis des années !

Bernard Benhamou : Je sais, je sais bien ! Je sais que c’est un sujet que vous avez abordé avec de nombreuses personnalités.
Aujourd’hui la question c’est comment se détermine-t-on par rapport à ce sujet. Si on se détermine mollement c’est que quelque part on était contre. Aujourd’hui, seules des solutions non pas radicales, mais je dirais politiquement fortes doivent être envisagées.

Sky : Solutions politiques dans la même phrase.

Bernard Benhamou : Malheureusement, il y a des gens encore pour y croire.

Sky : Il faut rajouter courage et là tu as le tiercé gagnant : courage, politique, solutions !

Bernard Benhamou : Je sens un côté désabusé !

Sky : Non réaliste, pragmatique.

Bernard Benhamou : Pragmatique. Tout à l’heure Tariq parlait de la crise covid. La crise covid a été un accélérateur sur tous les plans, peut être même sera-t-elle l’accélérateur du déclin, voire de l’expulsion du champ politique d’un certain Donald Trump, si on en croit les sondages, ce que nous verrons encore dans quelque temps.

Sky : Ou pas !

Bernard Benhamou : À voir. En tout cas, je dirais que ce que l’on voit politiquement, globalement l’inaction sera considérée comme une faute politique dans ce domaine dans pas très longtemps, là où auparavant elle était considérée comme anodine. J’ai connu des ministres à qui on disait « ne vous affichez surtout pas sur les technologies, vous allez y perdre en crédibilité », je ne citerai pas le nom des ministres, mais leur cabinet leur disait ça.

Sky : Le nom du chef de cabinet ?

Bernard Benhamou : Je ne le dirai pas ! Aujourd’hui il est question de quoi ? De taxe GAFA avec toutes les difficultés qu’il y aura à la mettre en œuvre évidemment, mais tout d’un coup on reparle de champions européens. Le récent discours de politique générale c’était 40 milliards pour l’industrie, on verra ce qu’il en sera fait.

Sky : Comment s’appelait le député qui avait fait un rapport sur les serveurs chinois, que c’était très grave, mais il ne parlait pas du tout des serveurs américains. Vous ne vous rappelez pas de ce mec-là ? Passons.
Question internet : j’ai peut-être loupé des morceaux mais en parlant d’infrastructure quid de OVH ? C’est français non ?

Bernard Benhamou : Oui.

Sky : Ils sont costauds ?

Bernard Benhamou : Oui. Je vais répondre là-dessus et je pense que Tariq pourrait conclure. Lorsque notre secrétaire d’État chargé du Numérique disait devant la représentation nationale.

Sky : Mounir Majhoubi ? Je n’ai pas compris.

Bernard Benhamou : Cédric O, oui il y a quelques semaines, disait : « Nous avons construit le Health Data Hub, il n’y avait pas de solution européenne, voire française, pour le faire. »

Sky : Et je veux travailler chez Microsoft le mois prochain !

Bernard Benhamou : À chacun de conclure !
Fondamentalement d’abord un, quand on voit un projet d’une importance stratégique telle et que l’on se dit « on ne peut le confier qu’à un Américain », comme le disait un certain président de la République française il y a quelques années, ma conclusion aurait été qu'il est urgent d’attendre. Était-il nécessaire de commencer [de risquer une fuite massive de ces données aux Etats-Unis, Note de l'intervenant] ? Je précise que c’était bien avant le covid pour ceux qui se poseraient la question, on parle maintenant du Health Data Hub, en période covid, mais il a été décidé il y a plus d’un an. Était-il prudent d’établir la maquette, le POC comme on dit dans ces domaines, le proof of concept, avec Microsoft au point que Microsoft, bien sûr, rajoute des briques de fonctionnalité qui font qu’au final ils sont quasiment les seuls à pouvoir répondre ? La réponse est non.
Dans une tribune sur ce sujet au Point, j’ai parlé d'une forme de paresse intellectuelle. Pour avoir dirigé des projets d’administration centrale, par définition on pouvait faire autrement. Les responsables de ce projet ont été au plus rapide et malheureusement sans se rendre compte des effets de bord, des risques que ça faisait courir aux données des Français et en particulier à leurs données les plus sensibles et stratégiques que sont les données de santé.

Sky : Là je vais prendre le point de vue de Gilles Babinet : il y a les données opt-in et il y a les données opt-out . Tariq, pourquoi tu te marres ?

Tariq Krim : J’avais fait un rapport qui a servi de cale pour armoire à l’époque de Fleur Pellerin, justement sur ces questions, et j’avais une réponse assez simple. Dès qu’on met les gens qui savent de quoi ils parlent, des gens qui sont techniques, dans les conversations, soudain les choses se passent mieux. Je me rappellerai toujours un de mes anciens associés qui avait monté une Web Agency, un de ses commerciaux avait vendu des pages web rondes. Et il a dû lui expliquer que ce n’était pas possible. En fait on a un vrai problème c’est qu’on a des talents exceptionnels.

Sky : Et on a beaucoup de culture de fumée.

Tariq Krim : Vous parliez d’OVH. OVH ils sont assez imbattables pour la machine nue, il faut tout faire soi-même ; il faut l’installer, mettre l’OS, les plateformes. On a des gens qu’on appelle des DevOps, des administrateurs systèmes, des gens dont le métier c’est de préparer, de déployer, de s’organiser. Dans une ancienne vie j’avais travaillé chez Infonie pour faire de l’Internet, j’avais un jeune Lyonnais – enfin jeune, il était un plus âgé que moi, il était quand même jeune à l’époque – maintenant c’est lui qui déploie pour tout Google, il s’appelle Éric Dumazet, un type exceptionnel qui patchait Linux en assembleur. Vraiment un type ! Des gens comme lui il n’y en pas beaucoup, mais des gens de très bon niveau, des DevOps, il y en a plein. Ce sont des gens capables, vous leur dites on va acheter, on va mettre 50 machines. Ce qui est fascinant c’est qu’une partie des outils qu’on utilise dans le Health Data Hub, mais aussi dans l’intelligence artificielle, notamment des technos comme Scikit-learn ou Jupyter Notebooks ont été développés en France. Le rapport de Cédric Villani sur l’IA, qui est fait avec le directeur de thèse, ne mentionne même pas les technos.
Après il y a un problème en ce moment avec le logiciel libre et les grandes plateformes parce que les grandes plateformes utilisent des logiciels libres et ne commitent pas les sources parce que maintenant, en fait, elles ne font pas de distribution, mais on pourrait reprendre. D’ailleurs, suite à l’histoire de Cédric O qui m’avait choqué : c’est comme si un ministre de l’Agriculture arrive et dit « le bœuf argentin c’est quand même meilleur que le bœuf français ».

Bernard Benhamou : On imagine qu'il ne resterait pas très longtemps ministre de l'agriculture !

Tariq Krim : Voilà ! Donc ça m’avait choqué. Ce qui est fascinant dans cette histoire, j’ai discuté en toute transparence avec Octave Klaba, le fondateur de d’OVH, parce que je ne comprenais pas. Il m’a dit : « Nous, on n’a jamais eu de véritable cahier des charges ». En tout cas ce que je sais des ingénieurs français que j’ai vus dans toutes les boîtes, je pense à OVH, mais il y en a plein d’autres, Outscale, quand on leur dit « voilà ce qu’on voudrait avoir », eh bien on va le construire, on construit. Quand on développe une boîte, puisque là on a un peu joué à la startup, on invente quelque chose de nouveau. C’est vrai que la startup nation a plutôt eu comme directive de copier les concepts américains et de les franciser comme on le faisait à l’époque avec les gens de la chanson ; la chanson française c’était la version américaine du rock et de Elvis Presley, on a fait un peu la même chose avec les startups. Mais on construit et on dit quelle va être l’architecture, quels sont les outils qu’on va utiliser et pour ça il faut amener dans la conversation des gens qui, en général, dans les administrations, sont au troisième sous-sol, des gens qu’on méprise.

Sky : Qu’on sous-paye.

Tariq Krim : Qu’on sous-paye. Ce qui m’a toujours fasciné c’est que les gens sont bons !

Sky : Ceux qui restent !

Tariq Krim : L’ancien directeur système du ministère de l’Intérieur ou de Bercy, je crois qu’il est allé après à General Motors, un type brillantissime, il était en plus respecté. Il y a des choses qui ont été faites à la Gendarmerie nationale avec le logiciel libre end to end, donc les gens sont là. Comment se fait-il que ces gens ne sont jamais dans les conversations ?

Sky : On a tous la réponse autour de cette table. On le sait. Dites-le ! Bernard, je te vois sourire avec un petit sourire en coin. On le sait tous !

Bernard Benhamou : On va le dire autrement. Pour avoir enseigné dans certaines grandes écoles dans ces domaines, je vous raconte une anecdote. J’ai créé les premiers enseignements à l’ENA sur Internet et administration électronique, 1998.

Sky : C’est loupé quand même !

Bernard Benhamou : C’était un one-shot. Ce n’est pas compliqué. À l’époque je leur disais « bientôt vous serez jugés, notés, sur ce que vous faites sur Internet ». Éclats de rire dans la salle ! Maintenant personne ne rirait !
Pour reprendre le propos, il est évident que les technologies ont pendant très longtemps, pour des littéraires, des juristes, que je connais bien, j’en ai beaucoup fréquenté, les technologies c’était du domaine du « contingent », c’était des choses secondaires. La décision politique c’était autre chose que de s’occuper de machines, de technologies, etc. Eh bien non ! Quand on voit des juristes d’un tel talent, puisque tout à l’heure on parlait de Lessig, devenir à ce point compétent alors que, je le précise, il n’a, à aucun moment, étudié les technologies de façon universitaire, c’est vraiment un autodidacte complet des technologies, c’était un juriste constitutionnaliste et un philosophe, il a aussi une formation de philosophe. On a eu des gens qui ont été curieux et qui n’ont pas méprisé ces sujets.
Notre problème c’est que trop souvent on a dit que d’un côté il y a l’ingénieur qui va s’occuper de faire en sorte que le courant fonctionne dans la maison et, de l’autre côté, il y a le politique qui va s’occuper des textes juridiques, des textes législatifs et effectivement de la régulation de tout ça. Je dirais, alors même qu’on avait parmi les meilleurs ingénieurs du monde – tout à l’heure on parlait des grandes époques des grandes décisions de politique industrielle française –, on avait des ingénieurs de talent avec des politiques qui les comprenaient et qui savaient leur donner les moyens qu’il fallait. Je rappellerai que les projets atomiques et autres sont nés avant même le général De Gaulle, déjà à la quatrième République, avant ce que l’on a pensé être uniquement la période clef ou charnière, il y avait déjà une volonté dans ces domaines. Aujourd’hui, malgré toutes les suspicions qu’on peut avoir, je dirais qu’il y a une forme de vision résignée de ce futur en disant « de toute manière on a loupé la marche » et je l’ai souvent entendu à Bercy, des gens à Bercy me dire « sur Internet c’est trop tard ». Je dirais que les scandales à répétition auxquels on a assisté, Snowden, Cambridge Analytica et consorts, nous donnent, entre guillemets, « une possibilité » de revenir dans le jeu. Soit nous saisissons cette possibilité, soit nous laissons la chose dériver comme elle a dérivé ces 15 ou 20 dernières années.

Sky : Tomber dans le misérabilisme de l’impuissance. Question d’Internet : doit-on se méfier de la 5G et de l’arrivée massive de Huawei dans le monde, notamment en Europe ?

Tariq Krim : Sur la 5G, on pourrait dire beaucoup de choses. Je trouve que l’Arcep [Autorité de régulation des communications électroniques, des postes et de la distribution de la presse] a été assez mauvaise sur la gestion de la partie onde et 5G. Je ne vais pas parler de ça, mais il y a plusieurs choses sur la 5G.
La première c’est qu’on change un peu de paradigme. Jusqu’à maintenant on avait des technos qui étaient du haut débit et pour beaucoup de gens la 5G c’est encore plus de débit. D’ailleurs, quand on écoute le nouveau maire de Grenoble expliquer que la 5G, ça sert, si j’ai bien compris à télécharger…

Sky : À regarder du porno dans l’ascenseur.

Tariq Krim : Dans l’ascenseur. Il a dû remarquer que la 3G ou la 4G ne marchaient pas très bien dans les ascenseurs.

Sky : Il y a moins de caméras dans les ascenseurs !

Tariq Krim : D’une certaine manière je comprends ce qu’il dit et si j’ai juste un instant pour l’expliquer, je pense qu’une grande partie des gens a l’impression que le monde va trop vite. On est dans une forme de barrière d’abstraction, c’est-à-dire que le monde est devenu abstrait, on ne comprend plus rien.
J’ai pensé pendant longtemps que l’IA – IA c’est le mot clef pour dire licenciement, on va mettre de l’IA dans une société, ça veut dire qu’on va remplacer les gens – allait être le mauvais élève, on allait être contre l’IA. Mais, à priori, le docteur Laurent Alexandre a fait son travail et des gens continuent à penser que c’est une force de bien et finalement c’est la 5G qui a pris cette idée que le monde va trop vite.
Derrière la 5G il y a un problème c’est qu’on a des technos, par exemple une boîte comme Amarisoft qui a été faite par Fabrice Bellard – quand j’ai fait la mission, avec Fleur Pellerin, je me suis dit il faut que je donne au moins quelques noms et je me suis dit je vais en donner une centaine, après je me suis fait un peu engueuler parce que « tu aurais pu mettre untel », mais j’ai mis 100 personnes qui ont participé à des choses vraiment importantes – et ce type, Bellard, si on peut regarder de la vidéo dans Chrome c’est grâce à lui, il a fait QEMU, et il est en train de révolutionner : en fait on peut prendre un PC à 400 euros, on le transforme en borne 4G, 5G, donc ça ne coûte rien. Lui a carrément outsmarté Huawei.
Une des raisons pour lesquelles on achète Huawei c’est que ça ne coûte pas cher. Il y a aussi le fait qu’ils ont été rapides, ils ont commencé rapidement à la déployer en Chine donc ça a été un peu plus vite et nous on a un sujet c’est qu’on n’est même pas sûrs que les opérateurs ont l’argent parce qu’on ne sait même pas combien vont coûter les licences, donc on est vraiment en retard. Il y a évidemment un problème de souveraineté puisque là on est carrément dans le cœur de réseaux des boîtes noires. On a déjà aussi des boîtes noires, on est censé depuis la loi sur le renseignement avoir des boîtes noires, mais elles sont censées être de fabrication française si j’ai bien compris. Là on passe sur quelque chose de plus inquiétant.

Sky : On aura des boîtes noires pilotées de la Chine.

Tariq Krim : À une époque où la technologie était importante, notamment chez France Télécom — j’ai passé ma jeunesse à me ficher d’eux parce qu’on faisait du fracking, on s’amusait à détourner les lignes de téléphone —, France Télécom était obsédée par la qualité de service. À une époque on n’était pas forcément d’accord avec l’architecture très centralisatrice du Minitel, numériste, mais c’était la qualité de service, c’est-à-dire que le truc marchait.
Maintenant on est passé à un système où on est au milieu du marais, on a deux barres, ça ne marche pas. Quand vous êtes au Japon vous êtes dans un club, vous êtes à moins cinq et vous avez cinq barres ; c’est pareil en Allemagne. Donc on a déjà perdu cette qualité de service.
Ce qui m’inquiète c’est que les réseaux c’est devenu un peu Frankenstein : on met un peu de Huawei, on met un peu d’Ericsson, on ne sait plus du tout comment construire les réseaux, parce que, encore une fois, dans les grands groupes – je mets de côté Xavier Niel qui connaît bien le sujet, donc je le mets à part – on n’a plus véritablement encore de techniciens dans les comex, maintenant vous n’avez que des marketeurs ou des politiciens professionnels, donc quand il s’agit de réfléchir à comment on va architecturer et ça il faut le faire dix ans avant d’implémenter ! C’est vrai aussi chez Renault. BMW a un système de voiture automatique, Renault va passer chez Google ! Ça veut dire que dix ans avant il y a des gens qui auraient dû réfléchir à ça, qui auraient dû aller voir l’écosystème, voir ce qu’on peut faire. Il ne faut pas oublier que Renault et Peugeot ont inventé la CAO [Conception assistée par ordinateur], en fait la 3D telle qu’elle existe ; les courbes de Bézier, toute la base de la CAO a été inventée chez Peugeot et aussi chez Renault. Je parle des années 60, on avait de gens qui étaient visionnaires, et maintenant on a des gens qui n’ont plus… On a effectivement ce problème.
Juste pour terminer sur la 5G, le problème de la 5G c’est qu’on pourrait faire des technos beaucoup moins chères et on pourrait aussi régler le problème des zones blanches en l’installant un peu partout, mais pour ça il faut revenir sur un point important qui est la décentralisation. Si on laissait les gens reprendre le contrôle du réseau on aurait du réseau partout. Le fait qu’on laisse maintenant un petit nombre d’opérateurs qui ont de moins d’argent, qui savent de moins en moins comment ça fonctionne, je mets encore de côté Xavier Niel, pose un problème.
En France on a une situation un peu unique, c’est-à-dire que partout il y aura des expérimentations 5G et en France, pour l’instant on est très en retard.

Sky : Bernard, ça mesh ?

Bernard Benhamou : Qu’il y ait un risque par rapport à Huawei, sans rentrer dans des scénarios conspirationnistes, comme on dit, c’est évident.
De l’autre côté, je rappellerai la déclaration d’une certain William Barr, le ministre de la Justice de Trump, qui a dit : « Nous ne faisons pas le poids par rapport à ces technologies 5G, nous avons vocation à prendre des participations majoritaires dans les deux sociétés européennes importantes sur le sujet c’est-à-dire Nokia et Ericsson ». En gros, nous apparaissons non seulement comme le marché mais comme la proie que l’on vient dépecer. Savoir que d’un côté on a le risque chinois et que, de l’autre côté, notre allié historique ne nous voit que comme une proie qu’il doit dépecer !

Sky : Attends, l’allié historique ? Je n’ai pas compris. Les débouchés de marché historique, c’est ça ?

Bernard Benhamou : Peut-être. Peut-être aussi des jeunes gens qui meurent sur les plages normandes.

Sky : 300 000, c’est ça ?

Bernard Benhamou : Je ne saurais dire ! Obama avait eu l’occasion de dire « on est venu deux fois face à des périls imminents pour vous Français et Européens » et quelqu’un avait répondu « oui, mais on vous avait aidé avec un certain La Fayette à acquérir votre liberté face au roi d’Angleterre ».

Sky : Ils l’oublient souvent. Si on n’avait pas été là, ils seraient encore colonie anglaise.

Bernard Benhamou : Anglaise, oui sans La Fayette.

Sky : Je vous coupe : que dire de la visite de Larry Fink, patron de BlackRock, à l’Élysée ?

Tariq Krim : Rien de particulier.

Bernard Benhamou : Je n’ai pas d’infos. Mais de fait ! C’est intéressant d’un point de vue logiciel. BlackRock fait partie de ces sociétés qui ont développé un savoir-faire sur l’évaluation du risque qui parfois a pu être utilisé y compris même au sein des gouvernements. C’est vrai qu’on a, je dirais, une interpénétration. On a beaucoup parlé pour l’administration d’Obama de Google, d’une Love Story entre Obama et Google. Là, on voit effectivement qu’il y a une porosité, y compris en période de risque, qui est une chose qui peut poser problème.

Sky : Vous chiffrez avec quoi ?

Bernard Benhamou : Chiffrer ? Avec PGP27 [Pretty Good Privacy].

Tariq Krim : Je ne sais pas. Pour les communications ? Je suis embêté parce que j’aimais beaucoup Signal28. Déjà parce que les deux cofondateurs de WhatsApp sont des trumpiens à fond. Je suis un peu gêné. Sinon rappeler que de toute façon, quand quelqu’un owne le téléphone, quel que soit le logiciel qu’on utilise, on est coincé !

Bernard Benhamou : On est coincé ! Il y a un vrai problème. Je ne voudrais pas revenir systématiquement sur l’antitrust, mais qu’il y ait deux plateformes qui trustent à elles seules 95/98 % du marché, donc iOS et Android, et que ces deux plateformes soient américaines, c’est en soi effectivement une exposition au risque maximum.

Sky : On arrive à la fin de notre interview. Vous allez nous conseiller trois livres chacun.
Bernard.

Bernard Benhamou : Je vais revenir sur Shoshana Zuboff, Le capitalisme de surveillance, remarquable. Extraordinaire. Je précise que normalement en octobre il devrait être traduit en français, c’est un gros pavé mais qui mérite vraiment d'y consacrer du temps.
Puisque j’ai cité Lessig, tout Lessig mérite d’être cité. Là encore, un livre que j’ai souhaité faire traduire et à l’époque tous les éditeurs de la place de Paris m’ont dit « magnifique livre, mais vous n’aurez que 300 lecteurs maximum si on le fait traduire », c’est son premier, c’est-à-dire Code et autres lois du cyberespace qui reste d’actualité. Il a même fait une version élaborée en collectif, qui s’appelle Code 2.0, qui est assez remarquable.
Je vous ai parlé de The Black Box Society de Frank Pasquale, qui est vraiment utile.
Mariana Mazzucato L’État entrepreneur, The Entrepreneurial State. Je n’ose revenir sur la phrase d’un certain Georges Bush Junior qui avait dit « les Français n’ont pas de mot pour entrepreneur », sachant que c’est un mot d’origine française, donc que l’État doive être entrepreneur est une chose qu’elle nous rappelle très utilement.

Sky : Tariq.

Tariq Krim : J’allais aussi dire The Black Box Society, mais je vais en proposer d’autres.
En ce moment je suis fasciné par les uchronies, j’ai toujours aimé cette idée qu’avait Fatherland.

Sky : Il faut que tu expliques « uchronie ».

Tariq Krim : L’uchronie, alternative timeline in timeline alternative.

Bernard Benhamou : What if? Qu’est-ce que si ce serait passé si… les États-Unis avaient été colonisés pas les nazis.

Tariq Krim : J’ai été par ce film qui a été inspiré du livre Fatherland où on imagine Hitler gagner la guerre, donc rencontrer…

Bernard Benhamou : … envahir la côte Est.

Tariq Krim : Non, ça c’est une autre uchronie, Le maître du haut château, mais c’était rencontrer Kennedy à Berlin, le film est absolument génial, le livre est génial.

Sky : Des nazis sur la lune c’est lequel ?

Bernard Benhamou : Bonne question.

Tariq Krim : J’ai découvert un livre qui s’appelle Swastika Night, qui a été longtemps écrit sous un pseudonyme, le nom de la femme qui l’a écrit ne me revient pas [Katharine Burdekin], mais il a été écrit en 1937. Elle imagine comment l’Allemagne nazie dominait le monde 500 ans dans le futur, donc elle avait déjà imaginé la Deuxième Guerre mondiale. C’est un bouquin fascinant.
J’aime bien aussi Le capitalisme de surveillance, mais je vais choisir un autre livre d’une personne que j’aime beaucoup qui s’appelle Sherry Turkle, qui est un peu une de mes maîtres à penser sur la question de la vision du numérique et de la sociologie qui s’appelle Alone Together, où elle a un peu décrit cette vision du numérique.
Après, pour tous ceux qui aiment le hack et qui ont envie de lire le bouquin de référence, je le dis maintenant parce que j’avais l’impression que tout le monde l’avait lu, Terminal Compromise de Winn Schwartau qui explique, en fait, le concept de Pearl Harbor électronique et qui a été un des pionniers. Il y a aussi Le nid de coucou de Clifford Stoll qu’il faut relire, Clifford Stoll qui, suite à une erreur de comptabilité de un dollar, a fait tout ce travail de découvrir des hackers allemands qui étaient plus ou moins affiliés au Chaos Computer Club, qui vendaient des secrets aux Russes et c’est écrit comme un roman incroyable. Pour les gens qui veulent voir un peu ce qu’était l’Internet dans les années 80, avant même l’Internet officiel, c’était encore l’Arpanet, c’est fantastique, il n’y a pas besoin d’être très bon techniquement. Ce type est brillantissime, un peu dingo et il nous avait prévenus, tout ce dont on parle. Il a écrit un deuxième livre beaucoup plus sombre sur l’avenir du numérique et qui correspond un peu aux thèmes qu’on a abordés aujourd’hui.

Sky : Vous connaissez le travail d’Alain Damasio.

Tariq Krim : Oui.

Bernard Benhamou : Oui, bien sûr.

Sky : Un conseil pour les jeunes générations, quelque chose d’impérissable qui va rester sur le Net ?

Tariq Krim : Je n’aime pas l’idée d’apprendre à coder parce que c’est toujours le truc, le poncif, mais apprendre à être curieux.

Bernard Benhamou : Apprendre à maîtriser les sources d’information. La veille devient une des formations, un peu comme la maintenance informatique est un métier qu’on doit tous apprendre douloureusement. Tous ! On y passe un temps ! Dans notre vie on dit qu’on passe un tiers du temps à s’occuper d’un ordinateur sans être productif sur un ordinateur ce qui est déjà énorme.
Je dirais qu’apprendre à maîtriser les sources d’information, les mettre en perspective. Je ne parle pas de fact checking, ce n’est pas le terme, mais comprendre comment on nourrit sa réflexion par rapport à un sujet. Étendre et croiser les sources d’information, c’est peut-être la nouvelle nécessité humaine des temps qui viennent.

Tariq Krim : J’ai l’inverse : c’est apprendre à s’exprimer clairement. J’ai eu la chance une fois de me retrouver pendant une demi-heure seul avec Steve Jobs, il y a des années. Il était au down de sa carrière quand il faisait NeXT et ce qui m’avait fasciné, on m’avait dit « c’est un tchatcheur, il ne connaît rien à la technologie ». Tous les trucs qu’il avait vus étaient bons – le wifi, l’USB – tout ça ce sont des décisions, donc il maîtrisait parfaitement la technologie, mais il avait une capacité d’éloquence, de réduire ses idées, simples, qui était fascinante. Encore aujourd’hui, il y a plein de gens qui veulent se prendre pour Steve Jobs, ils imitent le style, la simplicité, les powerpoints, mais sa vraie force c’est qu’il était capable de réduire l’essence de qu’il était, de ce qu’il voulait.
Je pense que chacun a le droit de penser ce qu’il veut, mais il doit apprendre à l’exprimer. C’est un travail.

Sky : À synthétiser. À résumer la quintescence de ses idées.

Tariq Krim : Exactement.

Bernard Benhamou : Absolument.

Tariq Krim : Et les défendre.

Bernard Benhamou : Et les défendre bien sûr.

Sky : Vous voulez ajouter quelque chose ? Messieurs, merci.

Bernard Benhamou : Merci à vous.

Tariq Krim : Merci beaucoup.

Sécurité numérique - Lutte inégale entre le glaive et le bouclier ? - Guillaume Poupard

ven, 07/24/2020 - 10:57


Titre : Sécurité numérique - sommes-nous condamnés à une lutte inégale entre le glaive et le bouclier ?
Intervenant : Guillaume Poupard
Lieu : Collège de France - Séminaire de Gérard Berry - « Où va l’informatique ? »
Date : février 2019
Durée : 1 h 10 min 38
Visionner ou enregistrer la vidéo
Licence de la transcription : Verbatim
Illustration : security, Cyberbase de Morlaix Communauté - Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Bonjour à tous.
C’est un grand honneur, je vais remercier Gérard [Berry] de son invitation, c’est un grand honneur et un peu une escroquerie en même temps, vous voyez il n’y a pas de slides, un artefact de cette escroquerie.
Ça fait très longtemps que je ne fais plus de science, je baigne dans la technique au niveau de l’ANSSI [Agence nationale de la sécurité des systèmes d'information ] et dans mes postes d’avant. Je ne fais plus de science, donc je ne vais pas vous parler de science, je vais vous parler de sécurité numérique telle que je la vis au quotidien, avec une deuxième escroquerie, c’est que je vais répéter ce qu’a dit Gérard. Je connais d’autres histoires, mais je n’ai pas le droit de les raconter, donc je vais m’appuyer sur celles-là qui sont publiques et qui sont déjà très éloquentes. Les autres, celles qui sont secrètes, elles ne sont pas plus éloquentes, c’est juste qu’il y en a beaucoup plus, de fait, malheureusement. Donc quand on connaît les histoires secrètes, on est juste encore plus inquiet fondamentalement. D’un point de vue qualitatif, là on a déjà l’essentiel.
Je vais reprendre un petit tout ça, donc je suis désolé il y aura plein de répétitions. Je vais vous redire la même chose sous l’angle, je ne sais pas comment dire ça, de l’administration, des pouvoirs publics, appelez ça comme vous voulez. L’idée c’est vraiment de vous convaincre qu’on a un vrai sujet avec ces questions de sécurité informatique, raison pour laquelle je dois bien avouer que j’ai été très agréablement surpris que ce dernier cours technique soit consacré à la sécurité, parce que, justement, je suis totalement convaincu que ce développement de l’informatique – il ne faut plus dire informatique, il faut dire numérique, encore mieux digital, bref, c’est de l’informatique tout ça – ce développement de l’informatique, qui s’est parfois opposé aux gens qui faisaient de la sécurité, ne sera pérenne et ne sera source de progrès que si les questions de sécurité sont prises au juste niveau. Et ce juste niveau est probablement très élevé, mais ce sera à vous de faire votre idée là-dessus.
À l’inverse, cette approche de la sécurité qui est souvent très noire, très pesante, c’est un peu tous les malheurs du monde dans ce monde numérique, on sait trouver des solutions, je vais essayer de vous en convaincre, on sait faire bien, c’est mal fait en général, mais ce n’est pas une règle. On sait bien faire, par contre ça demande de la compétence, ça demande des efforts, ça demande un peu d’argent, un peu de moyens, au juste niveau là-encore. Et si cet effort est fait, je suis persuadé qu’on sait tout à fait résoudre la plupart des grands problèmes aujourd’hui, il n’y a pas de verrous comme on pourrait dire. On a probablement encore quelques gros problèmes technologiques à résoudre, mais même ceux-là seront résolus, je n’ai absolument aucun doute. Par contre, il faut arrêter de développer quick-and-dirty, de développer comme des cochons parce que c’est très souvent ça la base du problème. Il faut également arrêter de se comporter comme des cochons parce qu’on est tous un peu responsables parfois de ces problèmes de sécurité numérique où on fait mal parfois, d’ailleurs parfois on sait qu’on fait mal. C’est un peu tout ça qu’il faut faire évoluer et c’est absolument indispensable et ça peut avoir des enjeux très forts, y compris en termes de sécurité nationale, c’est un peu le domaine dans lequel je suis aujourd’hui, puisque l’ANSSI en fait – je ne veux pas vous faire l’explication de ce qu’est l’ANSSI – c’est une entité qui dépend du Premier ministre et qui s’occupe de sécurité informatique avec, comme filtre essentiellement de prioriser tout ce qui concerne notre défense et notre sécurité nationale. Donc tout ce qui peut menacer la nation et la nation ce n’est pas l’État, la nation c’est vous, c’est moi, c’est toute cette cohésion qui peut aujourd’hui être gravement mise en danger par ces questions d’attaque informatique.
Il y aura toujours des attaquants, il y en aura toujours de plus en plus, ils seront toujours plus agiles, toujours plus forts, et ce sont toujours eux qui jouent avec les Blancs. De toute manière, il ne faut pas s’imaginer que tout ça est un effet de mode qui va passer, je ne vois vraiment pas par quel miracle ! Non ! Ce qu’il faut vraiment c’est prendre ce sujet à bras le corps.

Si on revient un petit peu sur les menaces, ça a été très bien dit, donc je reprends les mêmes exemples quelque part et avec une approche différente. C’est compliqué parce que très souvent, dans les médias, tout se mélange, on a l’impression que toutes les attaques sont au même niveau, c’est très anxiogène, mais on ne comprend pas très bien et à chaque fois c’est toujours la plus grande attaque de tous les temps parce qu’il faut faire des grands titres, évidemment. D’ailleurs, des fois j’attrape les journalistes qui écrivent ça, je dis « pourquoi vous avez dit ça ? Vous savez très bien que ce n’est pas le cas. — Ce n’est pas moi qui fais les titres, moi je ne fais que les articles, c’est mon rédac chef qui fait les titres », c’est sûrement vrai d'ailleurs.
Mais de fait de quoi on parle en général ? Ce qui fait souvent les grands titres ce sont les fuites massives de données, ces bases de données qui sortent, en ce moment c'est constamment, venues dont on ne sait trop où ; les motivations des gens qui publient ça sont parfois un petit peu obscures, pour être franc. Beaucoup plus souvent venues de la réglementation. Le Règlement général sur la protection des données1 qui est une approche européenne de la protection des données personnelles, c’est une avancée majeure sur la protection des données personnelles. On verra ! C’est probablement quelque chose qui méritera, à un moment, qu’on fasse du RETEX [retour d'expérience], il faudra comprendre ce qui marche bien, ce qui est excessif, ce qui est sous-dimensionné. Mais le fait, quand on perd des bases de données qui nous concernent, nous en tant qu’utilisateurs, le fait d’avoir à le dire, eh bien c’est probablement une bonne démarche, même si parfois dans mon métier ça m’embête, on pourra y revenir.
J’ai reçu des mails de Starwood me disant que mes données avaient été perdues. Mes gars sont allés voir dans la base de données de 700 et quelques millions d’adresses mails et ils sont venus me voir, un sourire en coin, en me disant « tiens il y a ton adresse mail perso qui est dedans et il y a aussi tes mots de passe, tu devrais faire gaffe ! » Bref ! On est souvent tous concernés par ces choses-là. Et ça c’est un peu le fonds de roulement, c’est un peu avec ça qu’on commence à vivre, à tel point que ça m’inquiète un peu, parce que comme c’est tous les jours, à force d’entendre la même fréquence en continu, le cerveau est bien fait, il finit par ne plus l'entendre, donc le danger ce serait ça, ce serait qu’on s’habitue au fait que finalement, toutes ces fuites de données, c’est quelque chose de normal et ce n’est pas normal ! J’avance vite là-dessus.
Après on a des attaques qui sont visibles mais qui ne sont pas graves – pas graves ça dépend pour qui ! –, régulièrement on a par exemple des attaques en déni de service qui bloquent des sites web. Bloquer des suites web, encore récemment, vous avez remarqué que les samedis étaient un peu agités, il y a un peu la même chose dans le monde numérique et parfois il y a des appels à bloquer des sites internet. On ne sait pas trop d’où ça vient. Il y a même eu récemment un communiqué de démenti d’Anonymous qui disait « non, nous on n’est pas d’accord, on ne veut pas attaquer les sites web ». Je vous laisse chercher à comprendre tout ça. Et c’est quoi bloquer un site web ? Simplement on va, comme ça, utiliser plein d’objets connectés, de machines compromises, sans que ça ait beaucoup d’impact d’ailleurs pour les détenteurs et ainsi de suite, et puis on va aller saturer des sites web ce qui fait que le site web n’est plus accessible pendant quelques minutes, c’est arrivé au site de l’ANSSI, ça arrive parfois aux meilleurs. Ce n’est pas très grave fondamentalement parce que ces sites web ne sont pas des outils opérationnels, il n’y a rien qui dépend vraiment de l’accessibilité à ces sites Web.
Quand vous appelez la Fnac et qu’on est à trois jours de Noël, là, la question se pose différemment, très clairement. Mais je vais va rester sur mon exemple, si un samedi après midi le site web de l’ANSSI est inaccessible pendant cinq minutes, ça ne change pas la face du monde ! Je suis d’ailleurs surpris qu’il y ait des gens qui l’ont remarqué, mais c’est pour être méchants !
Et pourtant, ça peut faire du bruit et pourtant ça peut réellement entamer la confiance qu’on veut développer dans le numérique, et ça peut être mal interprété.
Si le site internet institutionnel du ministère des Armées est bloqué comme ça pendant dix minutes, le titre dans la presse va être « Attaque informatique massive contre les armées françaises ». Mes collègues du ministère des Armées sont à chaque fois désespérés quand ils entendent ça, parce que non ! Ça ne fait ni chaud ni froid aux armées françaises le fait que le site soit tombé pendant quelques minutes, mais on commence à toucher à la confiance. Tout ce dont on parle là c’est finalement une question de confiance. C’est très technique mais au final c’est la confiance des utilisateurs, de vous, de moi dans ces systèmes-là qui est en jeu, cette confiance est très fragile.
Il y a d’autres types d’attaques, toujours sur les sites web d’ailleurs parce que c’est la partie visible. On a connu beaucoup ça en 2015 dans un contexte très désagréable qui était celui des attaques contre Charlie Hebdo, l’Hyper Cascher, début 2015, cette mauvaise période, eh bien on a eu plein d’attaques de sites internet en .fr , évidemment en .gouv.fr, pour aller afficher des messages. C’était assez variable, ça allait de « nous on n’est pas Charlie », vous vous souvenez de tout ça, à des trucs très agressifs, très pro-terroristes. Est-ce que c’est grave ? Pareil, question de jugement. Ça n’a pas forcément d’impact opérationnel, mais l’exemple que je prends toujours, le jour où vous avez vu un drapeau de Daesh en guise de page d’accueil sur le site web de votre mairie, eh bien après vous avez toujours une petite appréhension à aller inscrire vos gamins aux activités périscolaires. Et pourtant c’est vers ça qu’on veut emmener nos concitoyens.
Je prends souvent l’exemple : c’est du tag numérique, c’est du tag comme on peut en faire sur un bâtiment, il y a toujours des imbéciles pour faire des tags et tout ça. Ce n’est jamais très bon, sauf que là c’est fait sur Internet donc c’est fait à la face du monde et il y a un effet d’amplification qui est potentiellement très grave. Mais si c’est bien fait, si les systèmes sont bien faits, évidemment il y a une condition dans la phrase, eh bien ça n’a pas d’impact opérationnel très grave parce qu’on ne rentre pas au cœur des systèmes qui sont censés être critiques.
Je passe là-dessus.

Beaucoup plus grave, le développement de tout ce qui est criminalité. La criminalité ça commence à de la petite escroquerie sans un aucun moyen d'ailleurs, qui est plus astucieuse qu’autre chose. En ce moment, juste pour illustrer, il y a toute une campagne de gens qui vous envoient un mail, qui vous disent dans un français parfois approximatif, ça sent le Google Translate, « je suis un méchant hacker, j’ai pris le contrôle de votre machine, j’ai pris le contrôle de votre webcam, je vous ai filmé en train de faire des choses inavouables, mais je vais garder ça secret si vous me versez 200 euros, 2000 euros, les sommes varient, en bitcoins évidemment, sur tel wallet. » Extrêmement désagréable, même quand on a bonne conscience et tout ça, parce que c’est vraiment une atteinte à la vie privée et ça c’est très grave.
En fait, ces mails c’est du spam, ce n’est rien d’autre que du spam, ce ne sont pas des attaquants informatiques, ils n’ont pas attaqué votre ordinateur évidemment, ils n’ont pas l’effort d’attaquer votre webcam. Je ne dis que ce n’est pas faisable, mais ça demande un véritable effort, alors que là ils se contentent d’envoyer des mails à des centaines de milliers de personnes, des millions probablement vu le nombre de retours que j’ai eu eu simplement après un sondage. Dans le lot, tous ceux qui vont payer 1000 euros c’est autant de pris parce que l’effort par victime doit être de quelques centimes, s’il n’y a en que 1 % qui paye la rançon, le retour sur investissement, pour parler en termes économiques, est absolument colossal.
Petite escroquerie mais pénible !
Parfois ces gens-là sont très malins parce qu’ils vont aller piocher dans les bases de données de mots de passe qui ont fuité sur Internet, ils vont mettre ça dans leurs messages en disant « regardez, la preuve que je vous ai attaqué, je connais vos mots de passe ». Alors là, d’un seul coup on se dit « mince, il connaît mon de passe », donc c’est hyper crédible. Non ! On ne le sait pas forcément mais ces mots de passe sont déjà sur Internet, ce ne sont pas des secrets, ce ne sont plus des secrets.
Et puis, à l’autre bout du spectre, on a des escrocs qui sont très compétents techniquement, qui sont très dangereux, et qui ont compris que l’attaque informatique, les virus qu’on connaît qui sont aussi vieux que l’informatique et tout ça, ou presque, eh bien qu'on pouvait trouver un modèle économique dans ces virus. Avant, quand j’étais jeune — je commence à parler comme ça — les virus écrivaient des bêtises à l’écran, ils cassaient des disques durs, ils bloquaient la machine et tout ça, mais les gens qui faisaient ça ne gagnaient pas beaucoup d’argent directement manifestement.
Aujourd’hui c’est beaucoup plus simple, les rançongiciels, les ransomwares, les cryptolockers, il y a plein de noms comme ça, vont chiffrer les données. Au début ils chiffraient mal pour qu’on arrive à s’en sortir, aujourd’hui ils chiffrent bien, les gens qui font ça ont compris les principes de la cryptographie et ils vous disent « c’est bien simple, soit vous payez une rançon et on vous donne la clef de déchiffrement — d’ailleurs c'est très bien expliqué quand c’est bien fait — soit tant pis, vous avez perdu vos données ». Et puis là, si vous avez une bonne sauvegarde vous pouvez vous en tirer, si vous n’avez pas de sauvegarde ça peut être absolument dramatique de perdre ses données, donc c’est tentant, pour les victimes, de payer ces rançons. Évidemment, le message officiel sera toujours de ne pas payer les rançons, ce n’est pas bien de payer les rançons, ça encourage le crime, ce qui est vrai. Entre toutes ses données et 300 euros, je peux comprendre que certains payent. Le gros problème c’est que quand vous payez vous n’avez aucune garantie que vous allez réellement récupérer vos données. Vous avez quand même à faire à des criminels en face. On ne sait pas où ils sont, on n’est pas près de les attraper et ainsi de suite. Donc la qualité de service est variable, on va dire. Je dis ça sans rire. Des fois elle est excellente parce que certains de ces criminels ont justement à cœur d’avoir une très bonne réputation. Il faut que sur Internet on dise bien « moi j’ai payé et j’ai récupéré mes données, tout va bien ». Donc il y a en a qui ont une qualité de service qui est absolument remarquable et de fait ça marche bien.
Et puis il y en a d’autres qui développent comme des cochons, il y en a aussi chez les attaquants des gens qui développent comme des cochons et ces gens qui développent comme des cochons soit ils ne sont pas fichus de vous renvoyer votre clef, ils se trompent de clef, soit ils ne vous renvoient rien du tout, c’est une double escroquerie, soit ils se sont loupés dans le chiffrement ce qui fait que quand vous déchiffrez vos fichiers vous avez les 1024 premiers octets et le reste n’est pas déchiffré. Tout existe, on a tout vu.

Très souvent tout ça s’effondre, tout simplement, et typiquement l’attaque WannaCry2, c’était au printemps 2017. De fait, ce qu’on a pu tracer, tout ça c’est en source ouverte, c’est que l’attaquant a dû récupérer 30 000 dollars, par contre il a embêté la planète entière avec son truc et avec des conséquences dramatiques pour certains, le pire exemple étant en effet probablement le service de santé britannique : les hôpitaux ne marchaient plus, les systèmes d’ambulance ne marchaient plus, tout s’est complètement effondré. C’était un système qui était déjà connu pour être fragile donc ça a été un petit peu le coup de grâce. Tout ça a coûté très cher. Les estimations britanniques sont autour de 90 millions de livres, donc un système qui a déjà des problèmes de moyens il n’a pas besoin de payer ça. Et puis, quelque chose dont on ne parlera probablement jamais, c’est l’impact sur les personnes, parce que quand il n’y a plus d’hôpital et que les ambulances ne savent plus où aller, eh bien il y a des gens qui meurent probablement de manière prématurée. Et là, ce n’est pas pour faire de l’anxiogène pour l’anxiogène, mais on ne rigole plus, on n’est plus dans le déni de service, on n’est plus dans les pages web trafiquées, on est vraiment dans notre sécurité personnelle qui peut être totalement engagée.

Donc ça c’était WannaCry, ce n’était pas drôle, et c’est d’autant plus instructif que quand on a compris assez vite comment fonctionnait WannaCry – c’est un code assez complexe, c’est un mauvais escroc mais un bon développeur qui a probablement fait ça – on s'est rendu compte qu’il utilisait une faille qui s’appelle EternalBlue3 et cette faille n’est pas totalement anodine vu qu’elle a été volée à la NSA. On ferait des films avec tout ça, il y en probablement déjà d’ailleurs. C’est assez original ce qui se passe dans ce monde informatique parce qu’on a quand même peu d’équivalent avec le monde classique. De fait, la NSA, grand service de renseignement technique américain, qui fait de l’attaque et de la défense, c’est un peu mon homologue aux États-Unis, ça vous donne un petit peu la teneur des relations internationales que l’on développe, c’est intéressant au sens anglais du terme, ils font beaucoup d’attaques, ils l’assument pleinement. Pour faire de l'attaque ils développent des outils, ils ont des bases de vulnérabilité. Ils font des outils qui sont plutôt très performants. Quand ça fuite – par contre, parfois, ils ne sont pas très bons pour garder les secrets, Edward Snowden en a fait la preuve – dans ce qui a fuité, c’est une base de données absolument incroyable, on trouve des outils, on trouve les modes d’emploi de ces outils, on trouve les slides, les présentations pour expliquer à quel point tout cela est génial et se faire mousser auprès de ses autorités, on trouve même des compte-rendus d’utilisation de ces outils pour dire tel machin contre tel site c’est un succès ; quand on est dans la cible c’est un peu inquiétant donc après on va vérifier, tout ça est vrai. Et notamment, dans ce qui a été volé à la NSA par un groupe qui s’appelle The Shadow Brokers — qui est groupe ?, on ne sait pas ! — ils ont volé des tas de trucs, ils ont cherché à les mettre aux enchères, je ne suis pas sûr que ça ait marché, et puis ils ont fini par les rendre publics. Il y avait cette faille EternalBlue qui a tout de suite été jugée extrêmement critique par les spécialistes, qui s’attaque à un protocole, qui n’est pas le meilleur d’ailleurs, qui s’appelle SMB. Entre le temps de la publication de la faille, la réaction très rapide objectivement, notamment de Microsoft pour patcher ce truc, et l’attaque, il s’est écoulé suffisamment peu de temps pour que beaucoup d’utilisateurs n’aient pas eu le temps, n’aient pas pris le temps de patcher les systèmes.
On est dans une situation où des gens très forts se font piquer des choses très dangereuses, imaginez une des premières armées au monde qui se fait piquer des armes, comme ça, il y a vraiment ça dans le monde numérique et puis utilisées par on ne sait trop qui pour faire de l’extorsion, pour faire de l’escroquerie, des choses comme ça.
C’est vraiment contre ça qu’il va falloir apprendre à lutter dans le futur.
Je passe. C’était quand même intéressant l’attaque WannaCry.

Dans la foulée, on a eu NotPetya4, un peu différent, qui utilisait d’ailleurs un peu la même faille mais pas seulement. NotPetya c’est un peu différent parce que déjà, quand c’est arrivé, on avait passé un mauvais mois avec WannaCry ; le mois d’avant c’était l’élection présidentielle, on avait également passé des week-ends difficiles. Donc ça recommence. On se dit mince, c’est une malédiction ! Et là, tout de suite, les experts me disent « attention fais gaffe, NotPetya ce n’est pas pareil. Ça ressemble, tout le monde, tous les médias commencent à dire que c’est une nouvelle campagne et ainsi de suite, encore plus forte que la précédente comme à chaque fois. Fais gaffe, ce n’est pas la même. On a commencé à analyser le malware, en fait il ne chiffre pas les données, il les efface. Ou alors il les chiffre et il efface la clef », faire ça, c’est probablement la meilleure manière d’effacer. Et là, ce qu’on a compris assez vite collectivement, tout cela est également en open source, c’est qu’en fait c’est l’Ukraine qui était ciblée et qui était ciblée de manière extrêmement habile puisqu’en Ukraine il y a un logiciel de comptabilité publique qui est obligatoire pour déclarer des taxes, des choses comme ça, on doit avoir la même chose en France et dans tous les pays du monde mais ce ne sont pas les mêmes. Et l’éditeur de ce logiciel qui s’appelle MEDoc s’est fait attaquer, la mise à jour du logiciel a été corrompue, le malware a été intégré dans cette mise à jour, et ensuite chacun, appliquant probablement les bons principes de l’ANSSI ukrainienne, que je ne connais pas bien mais qui doit exister, a mis à jour ses logiciels et, en mettant à jour, a également récupéré le malware. Donc ça, en termes de ciblage, c’est absolument incroyable. Et en termes d’objectif, c’est purement destructeur. C’est de la mauvaise intention, le but c’est vraiment d’aller embêter la cible, avec là une capacité de ciblage particulièrement intelligente.
Qui c’est ? Qui a pu vouloir comme ça se payer toute l’économie ukrainienne d’un coup ? Nous on ne fait pas d’attribution et c’est assez pratique, mais on peut avoir des idées, ce n’est pas interdit. Mes gars me disent : « L ’Ukraine c’est bien pratique, c’est une sorte de champ de tir numérique », les pauvres, il faut voir ce qu’ils prennent ! Le problème c’est que là encore les charges explosives étaient mal dosées et surtout, elles n’avaient pas prévu le fait que ça allait éclabousser complètement en dehors de l’Ukraine pour la simple raison que certes ce logiciel MEDoc est purement ukrainien mais après, les réseaux eux ne s’arrêtent pas aux frontières. Et tous ceux qui avaient un orteil, un bout de réseau, bref, qui avaient une connexion avec l’Ukraine – et c’est le cas de beaucoup de multinationales, évidemment – eh bien, il y en a plein qui se font fait infecter par ce truc qui était extrêmement virulent, qui était destructeur. Et là il n’était même pas question de payer une rançon, c’était complètement bidon cette espèce de pseudo-rançon qui était demandée, et, de toute manière, les données étaient effacées, purement et simplement.
Donc là on change de catégorie, on passe de l’escroquerie, qui peut être parfois menée par des États à des fins de récupération d’argent, à des choses qu’on pourrait quasiment qualifier d’actes de guerre. D’ailleurs c’est toute la question pour certains : est-ce que c’est un acte de guerre ou pas ce que je viens de vous décrire ? Il y a notamment, en ce moment, un conflit aux États-Unis entre une société qui a été victime et son assureur, parce que l’assurance cyber commence à se développer, où l’assureur dit « moi je n’assure pas les actes de guerre, allez relire votre police d’assurance, vous verrez que les actes de terrorisme, les actes de guerre, les trucs radiologiques, ne sont pas couverts en général par les polices d’assurance, en tout cas pas les polices standards ». Et là, si on leur dit « c’est un acte de guerre, c’est l’Ukraine qui se fait bombarder comme ça, moi je n’y peux rien, c’est en dehors de la police d’assurance », la victime à laquelle ça a coûté quand même pas mal de millions cette affaire, dit « je n’en sais rien du tout, ce que je vois c’est que j’ai payé une police d’assurance pour assurer mes systèmes, que tout est tombé et que maintenant vous refusez de me payer ». Donc ce procès va être intéressant en termes e jurisprudence.
Ça c’était NotPetya, pareil, printemps 2017, particulièrement intéressant.

Et puis on a quelques autres histoires comme ça à raconter de sabotages, d’attaques. On a eu TV5 Monde, en 2015, il y a un attaquant très fort qui s’est dit « je vais me faire TV5 Monde », qui était une victime faible d’un point de vue informatique parce qu’elle ne pensait pas être attaquée, elle ne pensait pas être une cible, c’était même crédible. En fait, tout le monde est une cible. C’est ça la conclusion de tout ça ! Un attaquant très fort s’en est pris à TV5 Monde et n’a pas cherché à lui voler des données ou quoi que ce soit, mais il est entré dans son réseau, il l’a cartographié pendant deux mois et, à un moment donné, ils ont déclenché leur attaque et ils ont détruit tous les équipements de production audiovisuelle, les uns après les autres. Détruire ça veut dire quoi ? Comment fait-on pour détruire des équipements à distance ? Aujourd’hui c’est bien simple, on va bousiller le logiciel qui est à l’intérieur, que ce soit du micro-code ou du logiciel sur une couche supérieure mais ça revient à peu près au même. D’abord, l’équipement ne marche plus ça c’est très clair, et même à réparer – les équipement de TV5 Monde sont partis à la benne, ils ont été remplacés par des neufs un peu mieux sécurisés. C’est totalement irréparable.
Donc on voit apparaître une liaison très forte entre le monde cyber, numérique, éthéré, que certains imaginent ou pensent imaginer, et puis ce monde physique bien réel. Et c’est l’enjeu auquel on est confronté aujourd’hui. Ce numérique est partout. Vous le savez, il est partout, il est dans les transports, il est dans tous les systèmes industriels. Il n’y a pas que les ordinateurs, il n’y a pas que la bureautique, il y a toute cette informatique industrielle, cette informatique très souvent cachée. Allez aujourd’hui dans une usine moderne, c’est incroyable ! Il y a des automates de partout et dans chaque petit automate, c’est de la taille d’un disjoncteur, à chaque fois il y a un processeur, de la mémoire, un Linux [GNU/Linux] pas patché en général, et puis des moyens de communication. Tout ça a évolué à une vitesse absolument incroyable et, en général, avec une maîtrise très limitée de la part des détenteurs de ces usines. Donc c’est vraiment ça la transformation qu’il y a et tout l’enjeu c’est comment est-ce qu’on fait pour faire cette évolution de manière sécurisée, donc sans ouvrir les portes en grand à tous ces attaquants qui ont les idées, qui ont déjà fait la preuve du fait qu’ils avaient ces idées.

On pourrait prendre plein d’exemples. On peut se faire très peur, sincèrement.
Au niveau de l’ANSSI on est plutôt sur le champ défense et sécurité nationale, ça veut dire qu’on prend ça par l’angle qu’est-ce qui est le plus grave, donc on s’intéresse à quoi ? On s’intéresse aux administrations les plus sensibles, aux ministères les plus sensibles, plus pour des raisons d’espionnage qui reste quand même le fonds de commerce. Et là, l’espionnage c’est intéressant parce qu’il n’y a pas de règles, quoi qu’on en dise, l’espionnage c’est également intéressant parce qu’on se fait aussi attaquer par nos alliés, donc ça pose les problèmes de manière très particulière. Il y a l’espionnage, très clairement. Et puis, au-delà de ça, on travaille depuis maintenant plusieurs années très fortement avec ce qu’on appelle les secteurs d’activité d’importance vitale, ça fait très techno dit comme ça. En pratique c’est qui ? Ce sont les gens qui font de l’énergie, l’électricité, qui la fabriquent, qui la transportent, qui la distribuent. Tout ça c’est informatisé, tout ça ne doit pas être attaqué ou attaquable.
On travaille avec les télécoms, beaucoup, pour les mêmes raisons, la 5G qui est un peu à la mode en ce moment. La criticité des réseaux 5G c’est à peu près l’équivalent, à terme, de la criticité de la distribution d’énergie, peut-être même pire, parce qu’en électricité vous pouvez toujours avoir une génératrice à diesel et tout ça, un moteur de sous-marin planqué dans le sous-sol pour faire de l’électricité si vous n’êtes plus alimenté par votre fournisseur, en télécoms ce n’est pas dit. Ces réseaux vont être très critiques, c’est ce qu’on appelle vraiment des infrastructures critiques, nous et nos alliés, pas que nos alliés, tout le monde d’ailleurs, tout le monde voit ça comme ça.
Les transports sont des sujets où on peut « s’amuser » à se faire très peur aussi, s’amuser avec des guillemets.
Aujourd’hui on n’a pas de terrorisme cyber, c’est encore une invention, c’est encore de la science-fiction. On a un terrorisme très rudimentaire et déjà efficace. Qu’est-ce qui se passera demain si un terrorisme technologique se développe ? Je prends des exemples, après j’aurai droit à des coups de fil « pourquoi tu as encore parlé de nous ? », j’en prends quand même un, ils sont habitués maintenant. Si demain un groupe terroriste fait la preuve qu’il a fait s’écraser un avion de ligne par de l’attaque informatique, on va rentrer dans une crise mondiale sans précédent. Je peux vous dire ce qui va se passer dans l’heure qui suit : il n’y a plus un avion qui décolle, par contre, après, je ne sais pas vous raconter l’histoire. Le seul truc c’est qu’il ne faut pas la vivre cette histoire, il ne faut pas en arriver là, donc on n’a pas le choix. Il y a peut-être des domaines où on peut attendre les attaques, fonctionner comme ça, jouer au chat et à la souris avec les attaquants et jouer par essais/erreurs, comme on le fait dans beaucoup de domaines. Mais dans ces secteurs absolument critiques on ne peut pas se permettre d’échouer, donc il faut anticiper, il faut prévenir, il faut se protéger. Et toutes les grandes idées de contre-attaque et tout ça seront vaines, très clairement, le mal sera fait.

Dans le domaine de la santé également — puis je vais arrêter là ma liste, mais il y en d’autres — toute la santé est en train de se numériser et c’est absolument formidable ce que l’on voit d’ailleurs, se numériser au niveau des infrastructures de santé, dans les hôpitaux, c’est juste fou, les XP cachés c’est une réalité, évidemment, mais aussi les clés USB. Juste une parenthèse, une anecdote personnelle. À la maison je suis un peu parano, je fais un peu gaffe, je fais gaffe à ce que j’installe — je reviendrai après sur les règles de sécurité —, je fais gaffe aux mails que je reçois. Je n’ai jamais eu de virus, il suffit de dire ça pour avoir un problème ce soir, ce n’est pas une provocation non plus, il ne faut pas prendre comme ça comme un défi, mais, de fait, je n’ai jamais eu de virus. La seule fois où j’ai eu un problème, en phase d’échographie pour un heureux évènement et tout cela, on fait des photos, tout allait bien et puis à la fin le médecin me dit : « Si vous voulez, si vous avez une clef USB, vous me la donnez, je n’ai pas le droit de le faire, mais je vous donne les photos sur la clef », très sympa. Je dis bien sûr, je n’étais pas là pour un faire un cours de sécurité informatique. Je donne ma clef, on rentre à la maison, tout va bien, je branche sur le PC, alors là, un festival ! Un festival ! Voilà ! C’est ce qu’on appelle un pot de miel, en fait, un truc non sécurisé où chacun y va avec sa clef, chacun amène son virus sans le savoir, ça fait une sorte de collection et chacun repart avec l’ensemble de la collection pour le coup. Ce qui me surprend encore, pour être franc, c’est que la machine continue à fonctionner. Pas mon PC, mais la machine pour l’échographie. Pourquoi ? Tout simplement parce que le machin a été fabriqué avec une version bien fixée de l’OS et surtout aucune procédure de mise à jour, évidemment parce que pour ça il faudrait que ce soit connecté et ce n’est évidemment pas connecté et puis ce n’est pas demandé par le client et voilà ! Au final, c’est catastrophique ! Là ce n’est pas grave ce que je vous raconte, ce n’est pas très grave. Le jour où ça touche un scanner, le jour où ça touche un équipement de radiothérapie, ça peut être beaucoup moins drôle, objectivement. Il y a ça et puis il y a toute la question des objets connectés. C’est super ces objets connectés, les pacemakers, les pompes à insuline, tout ce qu’on va nous mettre dans le corps, on va vivre 20 ans de plus en bonne santé grâce à ça, objectivement c’est génial ! Il ne faudrait pas que ça nous tue ! Moi je dis ça, je ne dis rien ! On a un vrai sujet. On a un vrai sujet avec ça. Comment faire pour que cette avancée formidable se fasse en bonne intelligence avec ces questions de sécurité ? Le gros problème c’est que ces objets connectés, typiquement, certains vont coûter 10 euros et passer de 10 euros à 11 euros, ça fait 10 % plus cher, donc on commence à réfléchir. Comment fait-on pour faire de la sécurité à ce prix-là ? Très compliqué. Déjà quand on fait un avion c’est compliqué, alors que ça coûte parfois des centaines de millions, quand on fait un truc à 10 euros c’est encore plus complexe, mais je suis sûr qu’on y arrivera. Globalement on a su faire pour les cartes à puce, les choses comme ça, donc on devrait y arriver.

Dernier exemple d’attaque que je ne sais pas classer dans le reste : depuis 2016 on voit apparaître des attaques informatiques qui visent le fonctionnement même de nos démocraties, qui visent les processus électoraux. C’est la campagne américaine qui a lancé ça, si vous vous souvenez campagne Trump/Clinton, qui n’avaient pas forcément besoin de ça, de manière autonome ils arrivaient à générer suffisamment de bruit et de bêtises, mais ça a été, en plus, attaqué par des attaquants qui ont notamment volé des mails, qui les ont publiés, qui les ont parfois agrémentés, qui ont ajouté des bêtises dans ces mails, histoire de discréditer tel ou tel personnage ou tel ou tel candidat ou candidate en l’occurrence, et dans la pire des situations, une situation où on a 50/50. Vous vous souvenez de cette élection, victoire à Trump, majorité de voix à Clinton. Si l’attaquant a réussi à faire passer un pouième de votes d’un côté à l’autre simplement par cette manipulation de l’opinion, eh bien il a changé le résultat de l’élection.
Les manipulations de l’information, la désinformation et tout ça c’est vieux comme le monde, simplement ce que l’on vit aujourd’hui c’est un monde qui a changé et un monde dans lequel il y a beaucoup de nouveaux outils qui sont offerts, permis, développés par les attaquants qui cherchent à manipuler ces opinions. C’est très compliqué parce que ça mêle de l’attaque informatique, typiquement le vol de mails et la diffusion, et également de la diffusion de fausses informations, ces fameuses fake news, de la manipulation médiatique, de la manipulation sur les réseaux sociaux, ce qui, pour moi, n’est pas de la sécurité informatique, ce sont des questions de sécurité mais pas au sens SSI, tels qu’on les traite et, de fait, depuis 2016 on vit avec ça et on doit maintenant lutter contre ça. Et pendant l’élection présidentielle en 2017, deux jours avant le scrutin, le vendredi, je me souviens très bien, je l’avais même prédit en interne, j’avais dit « de toute manière, si on a un problème ce sera le vendredi à quelques heures de l’espèce de shut down, du moment où plus personne n’a plus le droit de communiquer ». Ça n’a pas manqué ! À quelques heures, trois boîtes mails de très proches du candidat Macron se sont fait, comme ça, diffuser. Ce n’est pas de la grosse attaque puisque ce sont des gens qui se sont fait avoir par de l’escroquerie par mail comme on peut tous se faire avoir quand c’est bien fait, objectivement, et avec, potentiellement, le risque d’un impact sur le résultat de l’élection. Je ne pense pas que ça en ait eu parce qu’on n’était pas à 50 /50 non plus, loin de là, mais on va devoir apprendre à vivre avec ça, plus tout ce qui va avec et qui n’est pas mon métier qui est comment est-ce qu’on fait pour lutter contre la désinformation. Je vous laisse réfléchir, c’est un sujet qui est extrêmement complexe, il n’y a pas le vrai et le faux, c’est une évidence.

Autre problème que je voulais partager avec vous, dans le domaine militaire, dont je viens, en général vous savez qui vous attaque. Il y a toujours des opérations secrètes, des commandos ultra secrets, des hommes grenouilles qui ont des combinaisons dont ils ont coupé les étiquettes pour qu’on ne puisse pas retrouver le pays d’origine – quand ils pensent à couper les étiquettes, mais en général ils savent le faire, quand ils oublient ça fait du bruit pendant très longtemps – mais, pour la plupart des attaques, on sait qui attaque.
Dans le domaine informatique, c’est l’inverse. En général, vous ne savez pas qui vous attaque. Ce n’est pas tout à fait vrai. En général, vous ne savez pas prouver qui vous attaque, il n’y a pas d’évidence sur qui vous attaque. Vous finissez par vous douter de qui c’est et puis vous pouvez avoir une sorte de faisceau de présomptions. Mais face à un juge, un juge au sens large, quelqu’un qui a autorité et qui doit décider si oui ou non la personne que vous accusez est bien la bonne, eh bien c’est pratiquement impossible aujourd’hui d’apporter des preuves dès que vous avez à faire à des attaquants de haut niveau. Des fois on a des indices, des indices intéressants. Qu’est-ce qu’on a comme indices ? On peut aller voir dans le code des malwares, dans le code des virus, des fois on trouve des commentaires, les attaquants ne sont pas très prudents sur les notions de compilation, ils laissent les commentaires et tout ça, et les commentaires peuvent être en anglais, ils peuvent être en cyrillique, ils peuvent être dans un anglais un peu francisant et on peut, comme ça, deviner un petit peu d’où ça vient, ça a pu exister. Donc on peut se dire, comme ça, quand on trouve des commentaires en russe dans un malware que ce sont les Russes qui nous attaquent. On a une preuve. Quand vous y réfléchissez, mettre des commentaires en russe pour faire porter le chapeau à untel, ce n’est pas très compliqué à faire, c’est même trivial à faire. À tel point d’ailleurs, je ne vais taper que sur la NSA, je vais aussi taper aussi sur la CIA, la CIA s’est fait attaquer par un autre groupe qui s’appelle Vault 75, elle s’est fait piquer des outils, tout ça a été diffusé, et parmi les outils de la CIA il y avait un, alors c’était vraiment avec une belle IHM [interface homme-machine] parce que probablement que les opérateurs de la CIA sont moins geeks que ceux de la NSA, une belle IHM où, en fait, vous avez un menu déroulant et vous dites à qui vous voulez faire porter le chapeau ! Et ça intègre automatiquement les preuves pour faire porter le chapeau. C’est génial et en même temps très logique.
Donc ça c’est une preuve, mais une preuve moyenne. Qu’est-ce qu’on a d’autre ? Eh bien les fuseaux horaires de compilation, les heures d’activité et tout ça, c'est une preuve aussi. Quand vous êtes un peu motivé, déjà vous pouvez changer la date de vos ordinateurs et même, quand vous êtes hyper-motivé, vous vous levez la nuit pour faire porter le chapeau, ce n’est pas hors de portée dès que vous avez un peu de moyens, donc c’est pareil, c’est un peu louche.
Dans les trucs rigolos qu’on a parfois à faire, il y a certains attaquants qu’on suit, il y a une relation presque intime qui s’installe avec eux, on suit leur activité. On sait que certains sont très actifs pour les ponts du mois de mai. À des moments où ils savent que les défenses peuvent peut-être se relâcher. Il y en a d’autres dont on sait qu’à Noël, pendant 15 jours, ils arrêtent, probablement des fonctionnaires. Donc il y a comme ça des habitudes qui se prennent. Il y a eu certains attaquants où on corrèle les jours d’inactivité avec les jours fériés. Et en fait, quand vous avez une corrélation parfaite, ça désigne un pays ; quand vous prenez tous les jours fériés c’est une signature d’un pays.

Là encore ce sont quand même très souvent de bons indices, mais ce ne sont pas des preuves, bien évidemment.
Je pourrais prendre plein d’exemples comme ça, on a plein d’exemples. Et puis, très souvent, c’est à qui le crime profite ? C’est le vieil adage des films policiers. Donc quand vous mettez tout ça bout à bout, il nous arrive régulièrement de dire à nos autorités « c’est machin », mais on n’a pas de preuves.

Certains commencent, les Américains commencent, ils ont deux/trois cas intéressants de la justice américaine où là, pour le coup, ils ont identifié qui a fait les attaques, ils ont les noms, ils ont les photos, en uniforme en général. Ça commence à se préciser, mais dans 99,9 % des cas on ne sait pas qui c’est, on ne peut pas le prouver.
Donc cette question de l’attribution est absolument majeure. J’insiste un peu dessus parce que tous nos mécanismes de défense, de coopération, d’entraide mutuelle, que ce soit au sein de l’Europe, au sein de l’Otan et ainsi de suite, s’appuient sur l’hypothèse parfois même totalement intuitive, même pas écrite, qu’on sait qui attaque. Quand vous ne pouvez pas dire qui attaque, comment est-ce que vous faites contre-attaquer ? Comment est-ce que vous faites pour porter assistance à une victime et ainsi de suite ? C’est extrêmement compliqué. Donc on est dans une situation de sécurité qui est totalement inédite de ce point de vue-là et qui remet en cause énormément de mécanismes pourtant bien rodés et c’est bien dommage, ce qui fait que beaucoup s’attachent à cette idée d’attribution parce que, sans ça, on n’y arrive pas.
Mon approche est plus de dire qu’on n’est pas près d’arriver à l’attribution. Il faut se concentrer sur de la protection, de la prévention, il faut empêcher les attaques, il faut rendre le coût des attaques beaucoup plus élevé pour les attaquants et ne pas s’imaginer qu’on va les détecter pour ensuite contre-attaquer, ce n’est pas le bon schéma. Mais quand je dis, notamment à des militaires, que la meilleure défense, c’est la défense, ce n’est pas glorieux, mais c’est pourtant ce qu’il y a de plus efficace.

Quelques mots sur des sujets qui ont déjà été abordés mais qui me tiennent à cœur.
D’abord la cryptographie, pas uniquement parce que j’en ai fait il y a très longtemps, au siècle dernier, mais parce que ça reste la base de beaucoup de choses. D’ailleurs la cryptographie c’est un bon exemple. On a mis 2000 ans à faire passer l’avantage de l’attaque à la défense. Notamment, il a fallu 2000 ans pour se rendre compte que le secret des méthodes ce n’était pas la bonne manière de protéger les méthodes de chiffrement et ce n’est pas intuitif.
Si on a mis 2000 ans pour en arriver là c’est que ce n’était probablement pas intuitif. Et puis tout s’est un peu inversé dans les années 70, à la fois au niveau de tout ce qui est chiffrement symétrique,ce qui a été dit rapidement, et également avec l’invention de toutes les méthodes de cryptographie asymétriques qui, pour le coup, ont levé des verrous technologiques absolument phénoménaux et ça a permis tous les usages que l’on peut connaître. Cette prise de conscience a vraiment été un tournant, ça a été énoncé par Kerckhoffs6 à la fin du 19e, mais finalement réellement appliqué que très tard du fait que la méthode devait être publique et seules les clefs devaient être secrètes. C’est la base de beaucoup de choses.

Aujourd’hui on peut dire qu’on sait faire de la cryptographie, de bons mécanismes cryptographiques, il faut être très modeste dans ce domaine-là. Il y a parfois des mauvaises surprises, mais globalement, au niveau théorique, c’est incroyable le progrès qui a pu être fait. Là où ça se gâte sérieusement c’est évidemment au niveau des implémentations. Alors là c’est vraiment un sport extrême. C’est hyper-compliqué de bien implémenter. Plusieurs exemples éloquents ont été cités, moi j’aime bien, typiquement, le coup des messages d’erreur ; quand on développe bien c’est ce qu’on apprend à faire, de bons messages d’erreur et tout ça. Le simple fait, finalement dans certains protocoles crypto, d’envoyer des messages d’erreur quand il y a un truc louche, rien que ça finalement quand c’est bien fait, quand l’attaquant fait bien son truc, ça permet de tout casser, c’est assez incroyable !
La génération d’aléas, c’est un truc incroyablement compliqué, en fait, alors qu’on pourrait se dire qu’il n’y a pas plus simple. Non, c’est incroyablement compliqué.

Il y a certains systèmes cryptographiques dont on sait prouver la sécurité avec quelques bonnes hypothèses bien identifiées, eh bien dès que l’aléa – et en cryptographie asymétrique il y a beaucoup d’aléas, c’est vraiment une des bases fondamentales – peut être un tout petit peu biaisé, on peut tout ruiner. C’est vraiment passionnant ! Pour le coup, pour les jeunes qui veulent faire des sciences marrantes dans ce domaine-là ça reste un champ d’exploration absolument incroyable.
Et puis il y a l’implémentation, que ce soit logicielle ou matérielle ou un peu entre les deux. C’est passionnant de regarder ce qui s’est fait notamment en termes de sécurité des cartes à puce. Ça nous renvoie aux canaux auxiliaires avec des cas plus simples probablement que ce qui se passe sur les microprocesseurs, mais quand on a découvert, vers 1996, quelque chose comme ça, qu’une carte à puce, ce n’est pas l’attaque la plus simple à faire mais qui est la plus triviale finalement en termes de canal de fuite : simplement en regardant le temps de calcul vous pouvez en déduire des secrets, ça a été une vraie surprise, effectivement. Et puis une carte à puce c’est un bon exemple parce que ce sont des concentrés de technologie absolument incroyables, mais, en même temps, c’est très vulnérable. Vous lui apportez tout. Vous lui apportez en général l’horloge, l’énergie, et puis ce n’est pas très intelligent une carte à puce.
Donc les attaques qui sont sorties à cette époque-là et qui ne font que se raffiner depuis, que ce soit par exemple en regardant la consommation de courant, eh bien les cartes à puce n’étaient pas prévues pour résister à ça ; simplement sur le silo on lisait les clefs, les secrets qui étaient contenus dans la carte. Ça aussi ça a été un choc y compris pour des mécanismes de crypto très robustes qui sont encore très robustes aujourd’hui, ce sont deux choses très différentes.

L’autre type d’attaque qui a été également totalement révolutionnaire, ce qu’on appelle les attaques par faute, ce n’est pas tout à fait pareil, ce n’est pas de l’information qui fuit, mais on provoque des erreurs et on en déduit des secrets. On pourrait se dire que quand on provoque une erreur eh bien on grille la carte ou on obtient un résultat faux et on ne peut pas en tirer grand-chose. Typiquement, avec certains mécanismes de cryptographie asymétrique qui sont, là encore, théoriquement très robustes, vous faites le calcul une première fois normalement, une signature par exemple, et une deuxième fois en provoquant une faute, ce n’est pas protégé, par un calcul mathématique trivial, vous en déduisez la clef. C’est vraiment fascinant.
Comment est-ce qu’on fait pour faire des fautes ? Typiquement, avec un laser, ça marche bien. Il faut bien le doser parce que pas assez fort ça ne fait rien, trop fort ça fait un trou, mais entre les deux on arrive à faire des erreurs, un bit qui s’inverse, un truc comme ça, ça reste de l’électronique. Là on est vraiment dans le titre que j’avais transmis, je parlais de glaive et de bouclier, c’est l’attaque et la défense. L’attaque et la défense jouent l’une contre l’autre depuis maintenant 20 ans et ce n’est pas près de s’arrêter. La défense continue à rajouter des systèmes de protection, de détection d’attaques, des choses comme ça. Les attaquants, au sens éthique du terme, notamment dans les centres d’évaluation avec qui on travaille, eh bien ils perfectionnent leurs méthodes et il y a, comme ça, ce jeu permanent. Raison pour laquelle vous vous êtes peut-être déjà demandé pourquoi votre carte bancaire changeait tous les trois ans, ce n’est pas parce qu’elle est un peu effacée, non, c’est parce que la puce qu’il y a dedans n’est plus du tout la même, simplement. C’est pour ça que c’est important de récupérer tous les trois ans votre carte pour vous en donner une nouvelle qui repart sur un composant de qualité. Quand on travaille sur des composants d’il y a dix ans, sincèrement ça tient dix secondes. Voilà ! C’est tout ça qu’il faut être capable… Là c’est de l’astuce, quelque part, dans ce jeu du chat et de la souris, pour rester à un bon niveau de sécurité.

Sur la crypto, deux choses encore. D’abord on entend beaucoup de bêtises sur le quantique, grand classique ! Grand classique quand on veut tout mélanger parce que les termes s’y prêtent.
D’abord il y a l’ordinateur quantique, on s’est longtemps demandé s’il allait exister un jour, on n’a plus trop de doutes ! Après, quand est-ce qu’il sera en vente à la Fnac ? Je ne sais pas, ça ne sera sans doute pas avant un certain temps. Le gros problème ou le gros avantage, suivant qui on est, c’est que ça permet sûrement de faire des tas de choses, mais ça permet essentiellement de casser la cryptographie asymétrique, en tout cas les algorithmes les plus répandus. D’ailleurs, ce n’est pas par hasard si ceux qui ont mis des sommes colossales là-dessus, tournent autour de la NSA et ils ne s’en cachent pas. Ça c’est un premier problème.
Si la crypto asymétrique devient vulnérable, ça veut dire qu’un jour il faudra en changer. Donc il nous faut des mécanismes de cryptographie qui résistent, ce qu’on appelle les mécanismes post-quantiques, la crypto post-quantique.
Là c’est tout un champ, un nouveau champ depuis maintenant plusieurs années, qui est ouvert pour de la recherche, de la recherche qui aura des applications parce que ce sont les standards de demain qu’il faut définir pour faire des algorithmes asymétriques comme ceux de tout à l’heure qui échangeaient, RSA7 et compagnie, mais qui résistent à ces ordinateurs quantiques. Il y a des pistes mais ce n’est pas si simple à faire.
Et puis, pour tout compliquer, il y a la cryptographie quantique qui existe aussi. C’est là où en général tout se mélange. Crypto quantique ça veut dire qu’on n’utilise plus du tout les mécanismes dont on a parlé là, mais on utilise les propriétés de transmission optique pour faire en sorte – ce qui est le contraire de l’hypothèse habituelle en crypto – que le canal ne soit pas interceptable, qu’on ne puisse pas intercepter les messages. Évidemment, quand on intercepte, ça a véritablement un impact sur la transmission, donc on peut, comme ça, monter des choses sécurisées.
Donc crypto quantique, ordinateur quantique, crypto post-quantique, ce sont trois choses qui n’ont rien à voir, fondamentalement, mais quand vous mélangez tout ça et que vous en faites un concept bizarre pour parler dans les salons le soir, eh bien ça fait ce truc quantique qui énerve tous les cryptos en général. Mais c’est un vrai sujet en soi, un vrai sujet qui est bien pris en compte.

Dernière chose sur la crypto. Aujourd’hui la crypto moderne a un défaut majeur c’est qu’elle est trop forte. Ça ce n’est pas un sujet facile. On sait très bien que tous les services de renseignement, d’enquête et tout ça, déjà il y a très longtemps avaient identifié le fait que la crypto ce serait dangereux, c’est exactement ce qu’on disait.
La France a fait partie des pays qui ont résisté le plus longtemps, je ne sais pas si c’est glorieux ou pas, mais à un moment on s’est rendu compte, c’était au milieu des années 90, qu’il y avait trois pays qui interdisaient encore la cryptographie pour un usage grand public, ça devait être l’Iran, la Corée du Nord et la France. Ça politiquement, c’est… Et puis ce n’est pas très réaliste.
Donc 1998, des travaux ont été menés pour la libéralisation de la crypto et je vous passe les détails, 2004, dans la loi il a été écrit, je cite mot à mot « l’utilisation des moyens de cryptologie est libre ». C’est fort de mettre ça dans un texte de loi ! Le fait qu’il y ait eu une nécessité d’écrire ça dans un texte de loi, ça veut dire quelque chose. Donc aujourd’hui l’usage de la cryptographie en France est libre. Ça pose un problème : il y a des cas où les services de renseignement, les services d’enquête, aimeraient bien pouvoir casser cette crypto.
Donc on est dans un débat qui est compliqué, objectivement, et pas qu’en France, loin de là, qui est comment est-ce qu’on fait pour permettre à tous les gentils d’utiliser la crypto mais pas aux méchants ? Posé comme ça, vous vous doutez bien que la réponse n’est pas facile. Toutes les grandes idées, genre il faut ré-interdire la crypto, ce n’est même pas la peine d’y penser, bien évidemment, parce que les conséquences négatives seraient sans commune mesure avec le gain et, de toute manière, ce serait très illusoire parce qu’avec ce genre d’idées on embête les gentils et on n’embête pas les méchants, donc c’est exactement l’inverse de ce qu’on veut faire.
La deuxième idée : on va affaiblir la crypto pour la mettre juste au niveau, c’est-à-dire que les grands services vont être capables de la casser, mais pas les autres. Ça ne marche pas non plus parce que le temps joue contre nous, à supposer que les gentils aient plus de puissance de calcul que les méchants, ce qui est déjà une très grosse supposition en soi !
Et après, il y a des solutions beaucoup plus techniques de portes dérobées, de trap doors, de choses comme ça, on va bidouiller un peu la crypto pour faire en sorte qu’elle soit accessible par ceux qui ont les bons passe-partout. Les passe-partout ça ne marche pas. Si vous avez une valise un peu haut de gamme, il y a sûrement une clef TSA [Transportation Security Administration] qui permet de l’ouvrir, les clefs TSA s’achètent pour quelques euros sur Internet, ces passe-partout de l’administration américaine, là on est dans le monde physique, ce n’est pas de la crypto ; ça ne marche pas dans le monde physique, c’est archi-démontré. Dans le monde numérique ça ne marche pas non plus, objectivement, parce que très vite les méchants ont également les clefs même si c’est bien fait cette affaire-là.
On m’accuse souvent de défendre la crypto et de ne pas apporter de solution à ce problème d’accès légitime, notamment par les services d’enquête, mais de fait c’est un sujet qui est extrêmement complexe et tant qu’on n’a pas de solution, et je ne suis pas sûr qu’on en trouve un jour, eh bien il faut admettre que le bénéfice de ces mécanismes est largement supérieur aux problématiques qu’ils peuvent nous poser également en termes de sécurité.
C’est un sujet récurrent, de toute manière, je pense qu’on ne s’en sortira pas, il faudra continuer à expliquer ces choses-là en continu.

On passe très vite. Il faut que j’avance.

Je vais vous dire deux mots d’open source et d’OS open source pour faire de la pub. Dans ma fonction je ne suis pas à dire « les logiciels propriétaires ce n’est pas bien, les logiciels open source c’est bien », parce qu’en termes de sécurité, malheureusement, c’est beaucoup plus complexe que ça. Il y a de l’open source très mal fichue, effectivement ! Et le fait de se dire que ce n’est pas grave, vu que c’est open source les gens le verront, ce n’est pas vrai, on le sait très bien. II y a des bugs très graves qui ont été trouvés dans certains systèmes open source, où, en fait, quand on va avoir le code source il y a un commentaire à côté qui dit « ça c’est tout pourri, je n’ai pas le temps de corriger, mais il faudra quand même y penser ». Le bug est expliqué ! Il dit « ce n’est pas bon parce que ci, parce que ça, et je n’ai pas eu le temps de corriger » et ça dure après pendant des années parce que, évidemment, personne ne relit l’intégralité du code source avant de compiler et il faut être encore capable de le faire. Je passe là-dessus.
À l’inverse, les systèmes propriétaires, évidemment, ce n’est pas forcément super sain de base, on pense tous un peu aux mêmes, ils ont fait des gros progrès mais ça reste un petit peu dérangeant cette obscurité des codes.
De fait, je ne veux pas dire qu’il y a les gentils et les méchants, c’est beaucoup plus complexe que ça.
Je disais que je voulais faire de la pub parce qu’on a récemment rendu open source une version de Linux [GNU/Linux] sur laquelle on a travaillé pendant très longtemps, je vois Olivier là-haut qui doit connaître ça par cœur. En fait, c’est un Linux qui est durci. Durci ça veut dire qu’on a commencé par enlever tout ce qui ne servait à rien et c’est déjà bien en termes de sécurité d’enlever tout ce qui ne sert à rien et c’est beaucoup. Parfois on est surpris. On a fait récemment le travail sur un logiciel open source de messagerie instantanée, dans un projet interministériel, la plus-value de l’ANSSI a été de virer 80 % du code source. À la fin on ne se rend pas compte du fait qu’on a enlevé des trucs, mais même, les gens viennent dire « ça marche vachement mieux ! » Ça fait réfléchir les informaticiens, ça rend modeste ça aussi et surtout, ça fait autant de surface d’attaque en moins, fondamentalement. Tout le code mort et tout ça, évidemment il faut l’enlever.
Tout ça pour dire qu’on a fait une version durcie de Linux [GNU/Linux] qui permet également d’avoir différentes cages, différentes instanciations, avec cette idée de schéma assez simple où, pour faire de la sécurité, le diable c’est Internet. Pour faire de la sécurité de bon niveau en étant connecté à Internet c’est super dur, même quand vous êtes bon, donc ça complique un peu les choses, évidemment. Par contre, avoir des machines sur lesquelles on arrive, en virtualisant, à avoir une instance connectée à Internet avec le risque, évidemment, qu’elle soit compromise, et une autre instance qui, elle, n’est pas connectée à Internet tout en ayant quand même les deux sur une même machine parce que deux machines c’est quand même pénible et c’est quand même bien, de temps en temps, de pouvoir passer de l‘information de l’une à l’autre, ça c’est quand même un modèle qui nous semble particulièrement intéressant et prometteur.
Donc voilà, ça s’appelle CLIP OS8, je vous encourage à aller voir, c’est open source. On a fait de l’open source sécrète pendant dix ans maintenant c’est de l’open source qui est réellement open source, je trouve que ça fait partie des beaux projets qui font partie des produits de l’Agence.

Deux derniers points.
Un, on n’a pas cité l’intelligence artificielle, très étonnant quand même dans un exposé ! Au-delà de l’effet buzz et tout ça, l’intelligence artificielle transforme nos métiers, évidemment, comme pour tout le monde. En interne les gars me disent : « Ne dis pas intelligence artificielle, il faut dire machine learning, c’est quand même beaucoup plus sérieux ! » Bon ! Machine learning. Pour les défenseurs comme nous c’est une vraie révolution parce qu’un de nos métiers c’est le métier de la détection. On voit passer des tas de flux colossaux et tout çà, et là-dedans, dans cette immense botte de foin, il faut trouver la micro-aiguille qui trahit peut-être une attaque. Ça vraiment, si ce n’est pas un champ d’application formidable pour l’intelligence artificielle, je ne comprends plus rien !
À l’inverse, pour les attaquants, on voit certains attaquants qui aujourd’hui, manifestement, ne sont plus des gens derrière leur clavier. Ces mécanismes d’automatisation plutôt malins sont en train de se mettre en œuvre.
Et puis il y a un troisième sujet qui est beaucoup plus fin sur l’intelligence artificielle, je ne sais pas trop où le classer d’ailleurs, c’est la sécurité même de ces IA. Je ne sais pas trop comment on fait ça, c’est un sujet qui dépasse complètement nos compétences. Nous, ce qu’on apporte, c’est quelque part notre esprit un peu pervers : à quel point on peut empoisonner un mécanisme d’apprentissage ? On trouve déjà plein de trucs sur Internet, les trucs de reconnaissance d’image. C’est très facile de faire passer un pingouin pour une autruche ou n’importe quoi pour n’importe quoi. Alors que, pour un humain, non ! Et est-ce qu’il est possible avec un nombre limité de données empoisonnées d’aller modifier, de manière importante, structurellement, un apprentissage ? La réponse est oui, clairement. Donc comment est-ce qu’on fait pour éviter ça ? C’est un vrai sujet extrêmement complexe.

Le sujet du vote est un sujet que j’aime beaucoup, parce que c’est très compliqué de faire du vote électronique, pour plein de raisons. Ça revient un peu sur les règles de sécurité. La situation en France, aujourd’hui : les machines à voter existent, peut-être que quand vous votez vous votez sur une machine électronique, informatique, je ne sais pas comment dire. En fait, cette autorisation existe depuis assez longtemps, c’est prévu par la loi depuis longtemps. Il y a eu un moratoire, en 2007 ou 2008, qui a dit « on commence à avoir un doute sur la sécurité de ces machines, donc ceux qui n’en ont pas acheté n’ont plus le droit d’en acheter et ceux qui en ont acheté vous n’avez plus le droit d’y toucher, mais vous avez le droit de les utiliser ! » Cherchez l’erreur dans cette phrase ! C’était en 2008 ; on est en 2019, ces machines sont les mêmes qu’en 2008, voire beaucoup plus anciennes ; vous n’avez pas le droit d’y toucher donc elles ne sont pas mises à jour. C’est exceptionnel, ces machines ! Donc on a un vrai souci avec ça, qui va être compliqué et qui se repose à chaque élection.
Et puis il y a le vote des Français de l’Étranger, le vote par Internet, là c’est vraiment très compliqué. Il y a un peu un paradoxe. En 2012 on l’a fait pour les Français de l’Étranger malgré les trous qu’il y avait. En 2017 on ne l’a pas fait pour les législatives, c’est uniquement pour les législatives aujourd’hui, pour limiter la catastrophe s’il y a un problème. En 2017, je suis allé voir les autorités en disant « ce n’est pas raisonnable, on ne peut y aller ». Ça n’a pas été la folle ambiance, évidemment ! Parce que évidement, d’un point politique, vis-à-vis des électeurs, on a l’impression d’une régression et c’est très dur à comprendre.

J’ai été trop long, il y a plein de choses que je voulais vous dire, je ne vous les dirais pas !

Organisateur : Il me semble qu’à sept heures il y a la séance de questions, tu peux y aller.

Guillaume Poupard : Deux mots alors, quand même.
Une fois qu’on a bien peur et qu’on a pris conscience que tout cela est très complexe, j’ai dit que je voulais vous convaincre qu’on sait se protéger.
C’est un peu frustrant. Au-delà des guides, vous allez sur ssi.gouv.fr, il y a plein de guides9. Ça va des trucs absolument élémentaires plutôt pour les particuliers à des trucs de haut niveau. Donc il y a ce que j’appelle la bibliothèque rose, la bibliothèque verte et tout ça, en souvenir des livres de nos enfances.

Il y a un truc assez facile d’accès qui est déjà assez sérieux qu’on a fait avec la CPME, l’organisation des petites et moyennes entreprises, qui dit « eh bien voilà, vous n’êtes pas des experts en cybersécurité, vous ne le serez jamais, voilà 12 règles à appliquer ! » Je vous encourage à aller voir ce guideGuide des bonnes pratiques de l'informatique - 12 règles essentielles pour sécuriser vos équipements numériques]. Déjà quand on fait ça, on évite tout le tout venant en termes d’attaque, ce n’est déjà pas mal ! Si c’est la NSA qui en a après vous, ça ne suffit pas, c’est une évidence, mais ce n’est déjà pas mal.
Là-dedans on va retrouver attention à vos mots de passe, classique, attention à tout ce qui est connexion USB, à ces choses-là, attention à la séparation des usages. Historiquement, à l’ANSSI, on se bat contre le BYOD, le bring your own device, cette idée assez étonnante que les employés, les collaborateurs, vont venir avec leur PC, avec leur téléphone et ainsi de suite, persos, et vont travailler avec dans le cadre du réseau de l’entreprise. Pour ceux qui veulent faire de la sécurité en entreprise, bon courage ! Chacun arrive avec son bazar et il faut que l’ensemble soit sécurisé. Pareil, je pense qu’on doit pouvoir démontrer que ce n’est pas faisable cette affaire-là. Et pourtant c’est une idée un peu naïve parce qu’on se dit que ça va faire faire des économies et, en plus, les utilisateurs sont ravis. Ils sont ravis ! Moi j’aimerais bien pouvoir utiliser mon téléphone perso pour travailler parce que je n’aurais qu’un téléphone, je n’aurais pas à jongler et tout. Simplement on ne sait pas faire et ce n’est pas raisonnable.
Attention à ce que vous téléchargez, attention aux mails et tout.
Tout ça ce ne sont pas des trucs absolus, c’est-à-dire que si vous le faites scrupuleusement vous ne serez pas pour autant 100% sécurisés, mais c’est tout cela qui crée une hygiène informatique, qu’il va bien finir par falloir apprendre notamment à l’école parce que c’est avant tout à l’école qu’on apprend les choses. Eh bien il va falloir apprendre ces choses-là parce que sans cette hygiène, sans cette base élémentaire, vous pouvez faire des choses extrêmement compliquées derrière, vous pouvez faire de la très belle science, vous pouvez faire de la très belle technique, de la technique très chère, s’il n’y a pas l’hygiène de base, comme on a mis des siècles à l’apprendre en médecine, eh bien tout ça est ruiné. Vous pouvez les meilleurs vaccins au monde et tout ça, ceux qui ne lavent jamais les mains et ainsi de suite, ils seront malades quand même.

Deuxième page de pub, on a fait une plateforme qui s’appelle cybermalveillance.gouv.fr10. Si vous avez un problème, si vous voulez vous renseigner, si vous avez quelqu’un qui a un problème, vous l’envoyez là-dessus. Ce n’est pas l’ANSSI, c’est quelque chose qui est à l’extérieur, c’est quelque chose qui est fait plutôt pour les PME et pour les individus. Vous allez trouver de la sensibilisation, donc cybermalveillance.gouv.fr, des messages très simples qui expliquent les bases, donc cette hygiène dont je parlais.
Également en cas de problème, le jour où vous avez un problème chez vous, ça peut vous arriver, évidemment il faut aller porter plainte mais ce n’est pas le policier ou le gendarme qui va réparer votre PC, ce n’est pas son métier. Pareil, quand vous êtes cambriolé ils vont venir faire les constats, ils vont venir prendre la plainte, mais ils ne vont pas réparer la porte, ce n’est pas leur métier. Cette plateforme vous met en relation avec des prestataires informatiques, plutôt locaux, qui ont signé une charte et qui peuvent vous aider. Ce n’est pas toujours magique, mais si vous avez des sauvegardes, ils peuvent faire de leur mieux, quelque part, donc on peut trouver de l’aide pratique, comme ça. Ça n’existait pas jusque-là. C’est une manière d’apporter un peu de concret positif pour les gens qui sont victimes et puis c’est également une manière, j’aimerais qu’il y ait plus de personnes qui y aillent, de faire de la prévention en amont parce qu’on est vraiment dans des domaines où, une fois encore, la meilleure défense c’est la défense.

Et puis je disais que la formation c’est vraiment un sujet absolument majeur. La formation à tous les niveaux. Former des experts en cybersécurité, évidemment c’est notre obsession parce qu’on veut les embaucher après. On arrive à embaucher des gens mais, de fait, il y a un décalage entre l’offre et la demande en termes de quantité parce que tout ça est allé très vite, objectivement. Quand on est pessimiste on peut même se dire que la situation s’aggrave puisqu’il y a de plus en plus d’experts, mais comme la demande croît encore plus vite, le gap continue à s’étendre, c’est un vrai problème.

Je pense à quelque chose d’absolument essentiel, c’est d’enfin apprendre systématiquement la sécurité aux gens qui font de l’informatique ou du numérique, parce qu’aujourd’hui on est dans une situation où il y a ceux qui développent, parfois n’importe comment, souvent n’importe comment, et ceux qui essayent de patcher tout ça et c’est totalement inefficace comme système. Quand on veut faire commercial on parle de security by design, la sécurité ça se pense dès le part, ça se construit dès le départ.
Quand on fait un beau système non-sécurisé et qu’on dit ce n’est pas grave je vais passer un avenant à tel industriel spécialisé et il va nous sécuriser ça par-dessus, ça ne marche pas. On a essayé dans tous les sens, on a payé des sommes folles pour les systèmes les plus critiques, ça ne marche pas. Il faut vraiment que ce soit ceux qui développent qui fassent en même temps de la sécurité et ça tout au long du cycle de vie, donc les mises à jour et tout ça et ça pose des tas de questions.

Dernier point. Le 12 novembre dernier, dans le cadre du Forum de Paris sur la Paix, c’était les commémorations du 11 novembre, vous vous souvenez peut-être de ça, l’Internet Governance Forum en parallèle, une semaine numérique, quelque chose de politiquement assez fort. Le président a fait l’appel de Paris pour la paix et la stabilité dans le cyberespace, un truc comme ça, un truc tout bizarre en apparence. Le fait de dire « écoutez, ce cyberespace, cet espace numérique, ce bien commun, il est devenu hyper-critique et on se doit collectivement, avec tous les gens de bonne volonté, de le sécuriser, de le stabiliser et de faire en sorte que ce soit un espace de paix ». Les esprits critiques disent : « C’est bon, les naïfs sont de retour à appeler à la paix à un moment où, au contraire, on a plutôt une course aux armements qui est en train de se produire et des agressions qui sont de plus en plus violentes. »systématiquement
C’est quand même important d’y revenir, parce qu’évidemment, c’est tout sauf naïf. Ça veut dire quoi ? Ça veut dire deux choses.
Ça veut d’abord dire qu’il faut dès maintenant préparer le jour d’après. On va avoir des attaques qu’on n’a pas encore vues, des attaques qui seront inacceptables, intolérables, je ne sais pas lesquelles, mais on peut malheureusement faire plein d’hypothèses et plein de scénarios. Quand on se sera mis d’accord, pour le coup c’est à l’échelle mondiale tout ça, il ne se suffit pas de se mettre d’accord entre quelques pays like-minded, qui pensent pareil, il y en a d'ailleurspeu qui pensent pareil. Non ! Il faut vraiment tous ensemble se mettre d’accord pour dire non, il y a des règles, il y a une sorte de droit international qui s’applique à l’espace numérique parce qu’autrement c’est le Far-West. C’est une expression que je prends souvent, c’est un Far-West avec des cow-boys armés qui se baladent, qui tirent dans tous les sens, qui ont même un bandeau sur les yeux pour faire le problème d’attribution, tout le monde tire sur tout le monde et à la fin il n’y a plus que des victimes. Ça c‘est la situation vers laquelle on va et qui est totalement inacceptable.
Donc savoir dire non. Cet espace numérique, ce bien commun, on doit le sécuriser, c’est notre intérêt commun tout simplement. Ce n’est pas du tout des belles idées ni de la philanthropie, c’est juste de l’intérêt général. Et pour ça, pour le sécuriser, eh bien chacun est responsable : les États sont responsables, les utilisateurs sont responsables, les fournisseurs sont responsables.
Quand on tire la ficelle, il y a plein de choses qui viennent. Ça veut dire par exemple, pour ceux qui développent des systèmes avec de l’informatique à l’intérieur, eh bien dorénavant il faut avoir des règles élémentaires qui, énoncées comme ça, paraissent triviales, mais qui ne sont pas appliquées aujourd’hui. Par exemple la sécurité elle est par défaut, la sécurité ce n’est pas une option qu’on paye en plus. Les mises à jour c’est par défaut. Il est hors de question de payer pour avoir des mises à jour, notamment de sécurité. Des mises à jour fonctionnelles et tout ça, pourquoi pas ?, qui sont le modèle économique, mais pour la sécurité non, c’est quelque chose qui doit faire partie de l’achat initial.
Et puis la sécurité doit être suivie tout le long du cycle de vie. Il est hors de question de faire un produit, comme la machine de tout à l’heure, et dire après ce n’est plus mon problème. Non, c’est le problème du fournisseur tout au long du cycle de vie. Et ça, ça a l’air évident de le dire, mais ce n’est pas trivial.
Et à l’inverse, c’est une responsabilité qui doit rester limitée. Quelqu’un aujourd’hui qui se fait attaquer parce qu’il a Windows XP, je suis désolé mais moi je pense que ce n’est pas la faute à Microsoft. On peut critiquer Microsoft sur pas mal d’aspects, mais ils ont prévenu, re-prévenu pendant des années « attention, à telle date on arrêtera le support et ainsi de suite » et il y avait largement le temps de migrer. Donc il y a une responsabilité qui n’est évidemment pas que sur toujours le même.

Et puis il y a un sujet qui est très compliqué c’est celui des vulnérabilités. Nous on est convaincus qu’il faut empêcher une sorte de commerce des vulnérabilités informatiques de se développer. C’est facile à dire, c’est très compliqué à faire parce que, évidemment, il y a un marché, il y a des offrants et des demandeurs, donc le marché est là. Ce marché est un marché qui est dématérialisé donc qui est très difficile à contrôler. Quand vous voulez contrôler de l’armement, si vous voyez passer un char, normalement ça se remarque. Une vulnérabilité informatique c’est en pièce jointe avec le mail et puis si c’est bien chiffré, même avec des moyens que nos démocraties n’ont pas, heureusement, de toute manière ça passe inaperçu. Il faut empêcher ce commerce de vulnérabilités, ça fait également partie de ce qu’on pense être très important pour stabiliser le cyberespace et éviter que ça devienne un Far-West.

Et puis, dernière chose, il faut vraiment préserver l’usage de la violence, de la violence légitime, comme j’appelle ça, et interdire le fait d’utiliser, même pour de bonnes raisons, des moyens offensifs. Je laisse de côté l’audit, l’open test et tout ça, ça peut s’encadrer, mais notamment une notion absolument abominable qui circule dans certain milieux c’est la notion de hack-back : je suis attaqué, je me défends, je contre-attaque, donc là c’est n’importe quoi parce qu’on est à peu près sûr de contre-attaquer sur quelqu’un est lui-même une victime. Quand on explique ça en France les gens disent « oui, c’est évident ». Aux États-Unis, autre perception de l’autodéfense et de l’usage des armes, eh bien non, il y a plein de personnes qui pensent que, de toute manière, l’État ne sera jamais capable de les défendre, que c’est à eux de se défendre, donc ils vont s’armer et dès qu’ils vont être attaqués, ils vont contre-attaquer. Ça c’est le début du grand n’importe quoi si on part là-dedans.

Je m’arrête là. Je vous dis juste la devise de l’ANSSI pour cette année, c’est tous connectés, tous impliqués, tous responsables.
Tous connectés oui, dans notre vie personnelle, dans notre vie professionnelle.
Tous impliqués oui, parce qu’on est de plus en plus des acteurs de ces mondes numériques, clairement, parfois très acteurs évidemment.
Et tous responsables parce qu’on a un rôle à jouer pour que cette sécurité soit garante du fait que c’est le bon côté du numérique qui va se développer et pas tous ces trucs atroces que je vous ai dits pendant une heure.

Je vous remercie beaucoup.

[Applaudissements]

Comment fonctionnent les câbles sous-marins de l'Internet ? Jean-Luc Vuillemin

jeu, 07/23/2020 - 08:04


Titre : Comment fonctionnent les câbles sous-marins de l'Internet ?
Intervenant·e·s : Jean-Luc Vuillemin - François Sorel
Lieu : Émission De quoi j'me mail ?, 01net
Date : juin 2020
Durée : 30 min 38
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : Câbles, Our First Marine Salvage Job, Jan Messersmith - Licence Creative Commons Attribution-Noncommercial-Share Alike 3.0 United States.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Cette semaine François Sorel reçoit Jean-Luc Vuillemin, directeur réseaux et services internationaux chez Orange. Comment a "tenu" le réseau durant le confinement ? Comment fonctionne l'Internet mondial ? Quels rôles ont les câbles sous-marins dans le maillage du réseau alors que la demande des débits explose ? À quoi ressemblera l'Internet du futur ? Toutes les réponses avec notre invité, spécialiste du sujet.

Transcription

Voix off : RMC, 01tv, François Sorel, De quoi j'me mail ?

François Sorel : Le retour de De quoi j'me mail ? sur RMC le dimanche matin, vous le savez, et sur 01tv à la fois sur le Web, mais aussi sur la chaîne sur les box qui vous attend, sur les box SFR, Orange, Freebox aussi, puis sur satellite depuis quelque temps sur FRANSAT canal 81.
Merci en tout cas de nous voir ou de nous écouter. On va parler télécoms. On en parlait la semaine dernière, j´avais le plaisir de recevoir le directeur général de SFR. Cette fois-ci on va passer du côté de chez Orange avec un tout autre sujet. Vous savez qu’aujourd’hui si on a du haut débit, du très haut débit, si on peut discuter avec les US quasiment sans avoir de latence, si on peut parler avec l’Asie, si on peut avoir de belles qualités vidéo un peu partout dans le monde, si votre Netflix marche parfaitement, c’est évidemment grâce à la fibre optique, à la 4G, si vous avez un bon ADSL, mais ça marche aussi parce qu’il y a d’énormes capacités, d’énormes tuyaux, en quelque sorte, qui traversent les océans.
C´est un sujet passionnant qu’on va évoquer maintenant avec mon invité. Je suis très heureux d’accueillir Jean-Luc Vuillemin. Bonjour.

Jean-Luc Vuillemin : Bonjour François.

François Sorel : Vous êtes le directeur réseaux et services internationaux chez Orange

Jean-Luc Vuillemin : C’est tout à fait ça.

François Sorel : Vous allez nous expliquer votre métier qui, je disais, est fascinant. Votre métier, en autres, c’est de faire circuler des bateaux un peu partout dans le monde, en tout cas sur les océans pour, on va dire, augmenter la capacité réseau qui est exponentielle évidemment, les gens demandent de plus en plus de haut débit, les entreprises aussi. Votre job c’est, en quelque sorte ça, pas que ça, on va en parler.
Peut-être, avant de rentrer dans le vif du sujet, que vous nous expliquiez un petit peu quel est votre quotidien, j’aimerais qu’on revienne sur cette période un peu étonnante qu’on a vécue de confinement. J’ai le plaisir de vous suivre sur Twitter où vous donnez pas mal d’informations. Est-ce que le confinement a été une période assez délicate pour Orange ou, en tout en cas, une période qui fait réfléchir encore aujourd’hui l’entreprise ?

Jean-Luc Vuillemin : Définitivement, François.
D’abord les réseaux, et surtout les réseaux internationaux, sont un indicateur avancé de l'activité économique du pays et de l’activité de nos concitoyens tout court.
Ce qu’on a vu en particulier pendant cette période de confinement, c’est une baisse très importante du trafic sur les réseaux dédiés aux entreprises puisqu’elles étaient fermées et que leurs salariés n’étaient plus sur place et une bascule extrêmement importante de ce trafic vers les réseaux grand public, notamment vers l’Internet, et aussi vers la voix. On a tendance à oublier la voix, mais je peux vous dire que pendant la période du confinement le trafic de la voix a été multiplié par 2, même par 3 sur certaines destinations.

François Sorel : La bonne vieille voix avec le téléphone.

Jean-Luc Vuillemin : La bonne vieille voix avec le téléphone, eh bien oui parce qu’il y a des moments où c’est le moyen de communication privilégié.

François Sorel : Le plus robuste parfois.

Jean-Luc Vuillemin : Le plus facile à utiliser, donc on a vu un accroissement du trafic tout à fait important.
Dans notre rôle d’opérateur international, il a fallu adapter les capacités des réseaux pour faire en sorte que partout dans le monde, en toutes circonstances, les personnes ou les sites internet auxquels les Français souhaitaient accéder dans le cadre de leur confinement soient disponibles dans les meilleures conditions possibles de service.

François Sorel : Donc une bascule du gros du réseau vers les gens en fait, dans les appartements, dans les maisons ; une baisse importante dans les entreprises. Est-ce que ça change la manière dont est architecturé le réseau pour vous ?

Jean-Luc Vuillemin : En fait, ce qui s’est passé, c’est qu’on a dû réaliser ce qu’on appelle des upgrades, c’est-à-dire des augmentations de capacité dans des délais extrêmement courts. On a augmenté à peu près sur les réseaux internationaux — les réseaux internationaux ce sont de très, très gros tuyaux, on parle vraiment de plusieurs millions de fois de ce que vous avez sur votre domicile, sur la fibre optique de votre domicile — on a quand même dû augmenter les capacités sur des facteurs qui ont été de 30, 40, 50 et, je l’ai dit, sur la voix de plus de 200 %.

François Sorel : Là vous parlez du trafic on va dire intercontinental ?

Jean-Luc Vuillemin : Oui, du trafic international, c’est-à-dire tout ce qui sort du territoire métropolitain.
Pour faire ces opérations, il a fallu mettre en œuvre un certain nombre de moyens. Parfois c’est compliqué. Par exemple quand il faut augmenter la capacité sur les réseaux sur l’Atlantique, il faut réaliser une interconnexion sur ces câbles sous-marins, il faut réaliser une interconnexion à New-York, à Londres, il faut avoir des gens sur place, il faut coordonner tout ça.

François Sorel : Et pendant le confinement ce n’est pas forcément facile.

Jean-Luc Vuillemin : Pendant le confinement c’est extrêmement difficile.
Et puis c’est vrai que dans les réseaux, depuis quelques années, il y a ce qu’on appelle la virtualisation des fonctions réseaux, qui est la capacité à mettre en œuvre un certain nombre de choses dans les réseaux de façon logicielle et non plus de façon matérielle, hardware. Le confinement nous a permis de réaliser à quel point ce mode de « softwarisation » des réseaux, donc de transfert des réseaux vers des fonctions logicielles, était puissant, souple et réactif. On va être amenés, c’est un peu technique et je m’en excuse, à revoir très profondément l’architecture de nos réseaux de manière à faire en sorte que le maximum d’intelligence et de capacité soit porté par des logiciels qui sont assez facilement modifiables à distance et non plus par du matériel qui, lui, est très difficilement modifiable, upgradable ou, en tout cas, sur lequel les interventions restent toujours très complexes.

François Sorel : En gros, au lieu d’obliger quelqu’un à se déplacer pour appuyer sur des boutons, rajouter des trucs, des appareils, je ne sais pas quoi, quelqu’un à Paris, dans son cockpit, clique sur une icône et c’est réglé. C’est ça ? Je schématise.

Jean-Luc Vuillemin : On augmente la capacité à distance. C’est ça. L’idée c’est bien ça, absolument.

François Sorel : C’est dingue !
En préparant tout à l’heure cette interview vous me disiez que finalement c’est surtout le réseau fixe en France — là je parle sur le territoire national, j’imagine que c’était comme ça un petit peu partout dans le monde — qui a vu sa capacité augmenter et pas forcément la 4G.

Jean-Luc Vuillemin : Oui, bien évidemment, parce que les gens étaient chez et quand vous êtes chez vous, assez naturellement vous activez le wifi. Donc tout le trafic qui était normalement en mobilité sur les téléphones dans la rue, etc., et qui, dans la rue, utilisait majoritairement les réseaux mobiles, essentiellement aujourd’hui les réseaux 4G, a basculé sur le wifi, donc sur les réseaux fixes. Ce qui explique d’ailleurs aussi pourquoi tout le monde dit que les réseaux mobiles n’ont pas eu de problèmes parce que, finalement, ils étaient très peu chargés, en moyenne moins 40 % de trafic sur les réseaux mobiles. Par contre, ce trafic s’est reporté sur les réseaux fixes et c’est là eu qu’on a vu arriver cette vague de trafic dont je parlais précédemment.

François Sorel : Je pense que vous avez raison dans les grandes villes où la plupart des gens ont une très bonne connexion internet, mais on peut imaginer que des personnes qui ont un ADSL un peu fatigué et qui captent de la 4G étaient plutôt connectées en 4G.

Jean-Luc Vuillemin : Bien sûr. Mais quand on regarde au niveau statistique, la majeure partie des gens sont plutôt dans le cas de figure qu’on a évoqué précédemment.

François Sorel : Il y a eu des moments qui étaient compliqués durant ce confinement ? On a frôlé, par exemple, je ne sais pas, des incidents importants de réseau en France ? Comme des capacités EDF, parfois EDF dit, en plein mois d’août, il y a surconsommation, même l’hiver, on a failli frôler des problèmes.

Jean-Luc Vuillemin : On n’a pas frôlé d’incident important. Il faut savoir que les réseaux télécoms sont toujours dimensionnés sur une notion de pic. On dimensionne les réseaux pour l’usage maximum qu’on constate tout au long de l’année.

François Sorel : Même si ça n’est plus un pic, même si ça, devient on va dire, la normalité.

Jean-Luc Vuillemin : Même si ça n’est plus un pic parce qu’on ne sait jamais quand est-ce qu'un pic va arriver. Il y a des pics assez évidents, par exemple les retransmissions télé, les grands évènements sportifs, ça ce sont des pics. Il y a des pics plus souterrains mais qui ont une vague assez incroyable, c’est par exemple lesupgrades des jeux. Quand un grand jeu comme Fortnite met à jour ou lance une nouvelle version, tous les joueurs du monde entier téléchargent au même moment et vous avez une vague de trafic absolument incroyable qui déferle sur les réseaux.

François Sorel : En plus, ce sont plusieurs gigas ces mises à jour, ce n’est pas anodin.

Jean-Luc Vuillemin : Plusieurs gigas, absolument, c’est incroyablement simultané et ça dure quelques heures.

François Sorel : Ça vous le voyez dans votre cockpit ?

Jean-Luc Vuillemin : Bien sûr qu’on le voit. On le voit et on essaye même de l’anticiper parce que ce sont des flux assez majeurs.
On a toujours une marge de sécurité qui est, en gros, de l’ordre de 40 à 50 % de notre capacité.
Par contre, c’est vrai que quand le confinement a été prononcé, on a vu le trafic qui a monté très rapidement et on a été amenés à se poser la question : qu’est-ce qui va se passer si ça continue comme ça ? Et effectivement ça a continué comme ça ! Donc on a lancé des programmes d’augmentation de capacité de façon préventive extrêmement importants. Je peux vous dire que pendant les quatre premières semaines on n’a pas beaucoup dormi dans les équipes des réseaux internationaux et partout dans le monde, car on est vraiment partout dans le monde, on n’a pas beaucoup dormi, on a regardé comment évoluaient les réseaux et on a ajouté les capacités.

François Sorel : Le risque c’est quoi ?

Jean-Luc Vuillemin : Le risque c’est la saturation.

François Sorel : Si ça sature, qu’est ce qui se passe ? Ça va aller moins vite ou est-ce que, par exemple, le réseau peut s’effondrer ?

Jean-Luc Vuillemin : C’est une bonne question, ça dépend de l’importance de la saturation. Les gens ont le sentiment que l’Internet mondial est un réseau extrêmement stable, extrêmement solide. Je peux vous dire, pour y travailler chaque jour, que ce n’est pas vrai du tout. C’est un réseau qui est extrêmement sensible, les réseaux de protocole IP sont des réseaux relativement fragiles dans leur fonctionnement et quand une ressource devient très majoritairement inaccessible, eh bien il se crée des mécanismes de ré-essais, de re-tentatives automatiques. Il peut arriver ce qu’on appelle des tempêtes de signalisation, c‘est-à-dire que les éléments du réseau se mettent à communiquer « est-ce que tu arrives à joindre – non je n’y arrive pas, je réessaye, je réessaye », et on peut avoir à un moment où la signalisation du réseau devient tellement importante par rapport au trafic qu’on paralyse le réseau.
Donc il y a des tas de questions, il y a des tas d’études, il y a un certain nombre d’universités et de chercheurs qui travaillent sur la question qui est à partir de quel moment de saturation du réseau, on pourra effectivement avoir des atteintes majeures non seulement, évidemment, sur le lien considéré mais de façon systémique sur des plaques plus ou moins importantes.

François Sorel : Pour terminer avec le confinement, après on passera à autre chose, mais tout ce qui est, on va dire, streaming, SVOD, Netflix, Disney+, dont le lancement a été décalé d’ailleurs, myCANAL, Amazon Prime Vidéo.

Jean-Luc Vuillemin : Pas de beaucoup, 15 jours.

François Sorel : Oui mais quand même, 15 jours, et ça été une décision gouvernementale, parce que je ne suis pas sûr que Disney+ vous aurait écouté s’il n’y avait pas eu cette obligation de la part du gouvernement. Aujourd’hui, le tuyau de la vidéo en France, ça représente combien de l’Internet global ?

Jean-Luc Vuillemin : À peu près 60 %. À peu près 60 % du trafic international est représenté par de la vidéo.

François Sorel : Ce n’est pas bizarre quand on dit ça comme ça ? On n’a pas trouvé une autre solution, finalement, que de prendre 60 % de ce gros tuyau pour, en plus, transférer des fichiers, enfin de la vidéo dont on sait à peu près, j’imagine qu’on arrive à prédire que par exemple la nouvelle série La casa de papel va peut-être représenter 5 % de ces 60 ; YouTube, je ne sais pas, il y a une vidéo hyper-demandée qui va arriver, vous voyez ce que je veux dire ?

Jean-Luc Vuillemin : La vraie question pour moi ce n’est pas tellement la nature du trafic, que ce soit de la voix de la donnée ou de l’image, c’est sa localisation. Ce qui fait en fait l’importance des réseaux internationaux c’est que les gens accèdent à des contenus qui sont loin de chez eux.

François Sorel : Plus c’est loin, plus c’est grave ?

Jean-Luc Vuillemin : Plus c’est loin, plus ça prend de ressources sur l’Internet mondial. Il y a des cas où ça peut se comprendre, il y a des cas où on peut se poser plus de questions. Il y a des pays qui ont des politiques extrêmement strictes en matière de localisation des données et qui font en sorte que les données qui sont utilisées par leurs internautes soient localisées sur leur territoire. C’est le cas de la Chine depuis très longtemps, c’est le cas de la Russie.

François Sorel : Ce n’est pas que pour des raisons techniques, des raisons politiques aussi.

Jean-Luc Vuillemin : Pas que pour des raisons techniques, il y a aussi des raisons politiques ou des raisons de sécurité qu’on peut très bien comprendre, de souveraineté nationale aussi.

François Sorel : Politiques on comprend, on est d’accord ou pas, mais voila, ça c’est autre chose !

Jean-Luc Vuillemin : La Russie s’est aussi lancée dans des programmes de relocalisation des données sur le territoire russe. Il se trouve qu’en Europe nous sommes extrêmement dépendants de contenus qui sont stockés aux États-Unis.

François Sorel : Encore une industrie, en tout cas une technologie, dans laquelle on est dépendants.

Jean-Luc Vuillemin : On est dépendants, effectivement. On commence à voir un certain nombre d’initiatives pour privilégier de l’hébergement de contenus en France, mais aujourd’hui la très grande majorité de nos contenus reste encore localisée aux États-Unis et c’est ça qui fait qu’en fait ces réseaux internationaux sont tellement importants parce qu’il faut aller chercher les contenus.

Il y a des technologies, notamment ce qu’on appelle les caches, les CDN [Content Delivery Network)], etc., qui visent à rapprocher les contenus des utilisateurs.

François Sorel : Pour qu’on comprenne bien, je suis, je ne sais pas, je dis n’importe quoi à Ajaccio, j’appuie sur mon bouton Netflix pour regarder La casa de papel, le signal vient d’où ? Je ne vais pas vous demander d’où exactement, mais il va être où ? Il va être à Paris, à Marseille, en Corse ? Il sera à Los Angeles ?

Jean-Luc Vuillemin : Ça dépend vraiment des utilisateurs. Netflix est un cas un peu particulier. Les contenus étant français, Netflix a développé une politique de localisation des contenus en France. Par contre quand vous allez par exemple chez Google.

François Sorel : YouTube.

Jean-Luc Vuillemin : Ou YouTube, voilà. Vous êtes à Ajaccio, vous appuyez sur votre bouton, on va localiser le contenu, on va s’apercevoir que le contenu est aux États-Unis, donc vous allez remonter d’Ajaccio à Marseille, vous allez ensuite monter de Marseille à Paris, ça ce sont les réseaux nationaux. À Paris on va récupérer votre trafic. Et mon boulot, le travail en fait de la fonction opérateur de réseau international d’Orange, c’est de faire en sorte que dès que la ressource à laquelle vous voulez accéder n’est plus localisée en France — que ce soit un utilisateur téléphonique, que ce soit un site internet, que ce soit une vidéo — on puisse mettre en œuvre l’ensemble des moyens qui peuvent être des fibres optiques, qui peuvent être des câbles sous-marins, qui peuvent être du satellite, l’ensemble des moyens qui vont vous permettre d’accéder à cette ressource.

François Sorel : On reprend le cas de YouTube. YouTube n’a pas des caches en France avec les vidéos les plus populaires ? On est d’accord, quand même, je ne vais pas forcément aller prendre une vidéo à New-York chez Google.

Jean-Luc Vuillemin : Absolument. Bien sûr que non. Il y a quand même plusieurs éléments. D’abord, même si cette vidéo est populaire et qu’elle a été localisée en France, à un moment il aura bien fallu qu’elle traverse l’Atlantique, donc elle va forcément utiliser ce réseau international.

François Sorel : Mais une fois.

Jean-Luc Vuillemin : Une fois. Les caches ce sont des mécanismes dynamiques, donc tous les contenus ne peuvent être cachés en France. Les caches c’est très efficace, on a un ratio de 1 à 10 à peu près entre la capacité reçue du réseau international et la capacité délivrée localement. Mais quand on parle de plusieurs térabits de trafic, ça reste quand même des volumes considérables.

François Sorel : Votre métier. Vous, on l’a deviné, votre objectif c’est d’assurer la bonne continuité et la capacité réseau entre les continents. Pour ça il faut tirer les câbles sous la mer, il n’y a pas 36 solutions. Vous me disiez tout à l’heure, le premier câble date de quelle époque ?

Jean-Luc Vuillemin : Les câbles sous-marins, c’est une technologie qui est très ancienne. Le premier câble sous-marin date de 1850. Il a été tiré en 1850 entre la France et l’Angleterre.

François Sorel : France Angleterre, donc il traversait la Manche.

Jean-Luc Vuillemin : Il traversait la Manche. C’était quelque chose de très rudimentaire, c’était juste à l’époque un gros tuyau de cuivre avec un isolant. C’est d’ailleurs l’invention de l’isolant qui a permis de créer des câbles sous-marins.

François Sorel : Parce que sans cet isolant tout s’oxyde et ça ne marche pas.

Jean-Luc Vuillemin : C’est exactement ça. D’ailleurs l’invention du câble, la notion même de câble est très légèrement antérieure, elle date de 1834. C’est en 1834 qu’on a créé le premier câble, c’est von Siemens qui a créé le premier câble en 1834.

François Sorel : Siemens, qu’on connaît.

Jean-Luc Vuillemin : Absolument, qui a donné lieu après à des tas d’autres développements.

François Sorel : Merci à lui.

Jean-Luc Vuillemin : 1850, le premier câble sous-marin entre la France et l’Angleterre. Après ça a été très vite. Quand on regarde les cartes, on ne peut être qu’étonné. Dans les années 1900 il y avait déjà plusieurs centaines de câbles sous-marins à travers le monde et la France était d’ailleurs un très gros nœud d’accueil de câbles sous-marins.
Après, c’est une technologie qui a connu des hauts et des bas parce que, comme vous l’avez dit, tout ce qu’on pouvait passer sur les câbles sous-marins c’était du morse. Il y a des technologies qui sont apparues comme la radio. La radio permettait de passer la voix, donc, à un moment, il y a eu une concurrence entre la radio et les câbles sous-marins.

François Sorel : Entre les continents, entre les US et par exemple l’Europe, la radio ça marchait ?

Jean-Luc Vuillemin : Eh bien si ! En 1920, AT&T et les PTT français avaient mis en place un système de communication radio entre l’Angleterre — à côté de Rugby il y avait un émetteur qui faisait 500 mégawatts — et un émetteur situé à Terre-Neuve, et on passait de la radio sur l’Atlantique. Ça existait.

François Sorel : Incroyable, dingue. Il y a quoi. Il y a 5000 kilomètres, quelque chose comme ça ?

Jean-Luc Vuillemin : C’est ça- Il y avait une voie montante et une voie descendante, ce n’était pas donné, c’était de l’ordre de l’équivalent de 120 euros la minute, à peu près, mais ça marchait.

François Sorel : C’était le début du roaming finalement, c’est dingue !

Jean-Luc Vuillemin : En fait les câbles sous-marins ont repris un peu le dessus après la Deuxième Guerre mondiale puisqu’on a inventé le répéteur. Le répéteur c’est l’équipement qui permet de régénérer le signal à intervalles réguliers et qui a fini par permettre de transférer de la voix sur les câbles sous-marins.

François Sorel : Pour qu’on comprenne bien, si je tire un câble entre New-York et Brest, je dis n’importe quoi, si je ne mets pas de répéteur au milieu, il n’y a rien au bout en fait.

Jean-Luc Vuillemin : Le signal s’affaiblit et au bout d’un certain temps, effectivement, votre signal est très faible. C’est d’ailleurs pour ça que dans es premiers câbles sous-marins, avant l’invention du répéteur, on envoyait des tensions extrêmement puissantes pour que le courant arrive de l’autre côté.

François Sorel : Pour que ça arrive de l’autre côté. On est d’accord.

Jean-Luc Vuillemin : Il y a des câbles qui ont brûlé, qui ont cramé, parce qu’on a mis trop de tension.

François Sorel : On testait à l’époque.

Jean-Luc Vuillemin : Exactement.

François Sorel : Aujourd’hui combien y a-t-il de câbles qui circulent dans les océans, sous les océans ?

Jean-Luc Vuillemin : Je dirais à peu près 300-350 câbles, c’est très variable, on en installe tous les jours, on en enlève, on démonte également les plus anciens.
Ce qu’il faut surtout retenir c’est que 99 % du trafic intercontinental, toutes natures confondues, donc bien évidemment de l’Internet, passe par des câbles sous-marins. L’infrastructure de communication mondiale est, de façon extraordinairement majoritaire, dépendante des câbles sous-marins.

François Sorel : Et le pour cent qui reste c’est quoi ? C’est le satellite ?

Jean-Luc Vuillemin : Un tout petit peu de satellite. Le satellite a été un concurrent du câble sous-marin pendant plusieurs années jusqu’à l’invention de la fibre optique. Dès que les câbles sous-marins à fibre optique sont arrivés, ils ont présenté un bilan économique qui était tellement supérieur à celui des satellites qu’on a arrêté d’utiliser les satellites pour transférer massivement de la donnée.
Le satellite continue d’avoir un domaine d’utilisation qui est celui, évidemment, des zones dans lesquelles il n’y a pas de possibilité de câbles sous-marins. Aujourd’hui le satellite est très utilisé pour la mobilité : les navires, les trains, les voitures, les choses qui bougent, évidemment.

François Sorel : Les avions.

Jean-Luc Vuillemin : Les avions, bien évidemment, qui ne peuvent pas avoir de câbles, eh bien on va utiliser le satellite pour cette connectivité.

François Sorel : Un avion avec un câble ça serait compliqué.

Jean-Luc Vuillemin : Après il y a aussi des situations qui sont très propices à l’utilisation du satellite, ce sont toutes les notions d’intervention d’urgence. Par exemple La Croix Rouge, quand elle projette des équipes pour les catastrophes, etc., utilise du satellite. Les armées, également, quand elles font de la projection de force, utilisent le satellite. Il y a une instantanéité de la communication par satellite qui est très supérieure à celle qu’on peut faire avec des câbles.

François Sorel : Alors ces câbles, pour la plupart ce sont les opérateurs télécoms qui décident de les installer. J’imagine qu’il y a des accords entre les télécoms américains, français. Orange est un opérateur, c’est pour ça que vous êtes là aujourd’hui, c'est-à-dire que vous êtes le seul opérateur français à avoir toutes les installations, tout le matériel pour installer ces câbles, vous avez des bateaux, vous avez des chaluts.

Jean-Luc Vuillemin : Non, pas de chaluts, on ne fait pas de pêche, on ne s’est pas encore lancé dans la pêche.

François Sorel : Excusez-moi, je ne suis pas un spécialiste du vocabulaire marin, je suis désolé. Comment on appelle ces bateaux en fait ? Ils ont un nom particulier ?

Jean-Luc Vuillemin : Oui, bien sûr, ce sont des câbliers.

François Sorel : Des câbliers.

Jean-Luc Vuillemin : Des câbliers. En anglais CS, devant vous avez CS, ça veut dire cable ships, et vous avez également un autre type de navires, vous avez des navires de Survey, puisqu’un câble sous-marin est toujours fait sur mesure, un câble sous-marin sur étagère ça n’existe pas. On fabrique un câble sous-marin pour un parcours très précis, donc avant de lancer la fabrication, on va envoyer un navire qui va cartographier le fond, qui va cartographier les différentes routes et c’est sur la base de ces informations qu’on fabriquera ensuite le câble.

François Sorel : Et on pose un câble au fond de l’océan, comme ça.

Jean-Luc Vuillemin : Eh oui, on pose un câble au fond de l’océan, depuis des siècles maintenant.

François Sorel : À quelle profondeur ? Ça peut aller jusqu’à quelle profondeur ?

Jean-Luc Vuillemin : Jusqu’au fond de la mer. De mémoire, la plus grande profondeur marine c’est 11 000 et quelque chose, la fosse des Mariannes c’est 11 400 mètres, je crois. Il nous est arrivé de poser à moins 9000. Quand vous faites par exemple un transpacifique, quand vous arrivez depuis les États-Unis vers le Japon, vous avez une faille qui longe le Japon, elle est à moins 9000 mètres, il nous est arrivé de poser à moins 9000 mètres.

François Sorel : Et vous n’avez pas le choix.

Jean-Luc Vuillemin : Eh bien non ! Il faut poser au fond.

François Sorel : C’est incroyable ! Donc vous savez exactement où va tomber le câble ?

Jean-Luc Vuillemin : Non seulement on sait exactement mais c’est prévu à l’avance, il n’y a aucune latitude. On pose le câble où il est prévu.

François Sorel : Ça demande une cartographie incroyable des fonds sous-marins.

Jean-Luc Vuillemin : C’est ça. C’est pour ça qu’on a des navires spécialisés qui, avant la pose, vont faire un relevé extrêmement précis.

François Sorel : Ils scannent, en quelque sorte, les fonds sous-marins.

Jean-Luc Vuillemin : On sait où le câble est posé à 10 centimètres près.

François Sorel : Jean-Luc Vuillemin , ce qu’il y a aussi d’intéressant, je le disais tout à l’heure, les opérateurs télécoms installent ces câbles, mais maintenant il y a les GAFA, il y a Google, il y a Facebook, il y en a peut-être d’autres, je ne sais pas si Apple a prévu de tirer des câbles.

Jean-Luc Vuillemin : Pas à ma connaissance.

François Sorel : Est-ce qu’il faut s’en réjouir ou est-ce qu’il faut s’en inquiéter ?

Jean-Luc Vuillemin : Je ne sais pas s’il faut s’en réjouir ou s’il faut s’en inquiéter, mais c’est un état de fait. Et c’est un état de fait d’une importance considérable.
Comme vous l’avez dit, tous les GAFA ne sont pas intéressés par les câbles sous-marins. Ceux qui sont vraiment les plus actifs aujourd’hui ce sont Facebook et Google, Amazon un peu moins, Apple, à ma connaissance, n’a pas fait d’incursion dans le domaine des câbles sous-marins, Microsoft a fait quelques petites choses assez limitées.

François Sorel : Ils louent des capacités, on est d’accord.

Jean-Luc Vuillemin : Ils louent des capacités.

François Sorel : J’imagine qu’Amazon, avec son système de cloud, doit louer des capacités monstrueuses.

Jean-Luc Vuillemin : Absolument. Encore une fois, ce n’est pas parce que vous avez un besoin que vous décidez forcément de construire, vous pouvez aussi louer.

François Sorel : Oui, bien sûr. Après c’est une équation économique.

Jean-Luc Vuillemin : C’est une équation économique et stratégique. Quand je m’amuse à faire la somme de tous les investissements que Facebook a annoncés dans les câbles sous-marins, j’atteins un niveau d’investissement sur les trois dernières années qui est quand même de l‘ordre de quatre milliards de dollars. Quatre milliards de dollars ! C’est considérable !

François Sorel : L’objectif de Facebook c’est quoi ? À votre avis c’est d’avoir son propre réseau ? Mondial ?

Jean-Luc Vuillemin : Il y a plusieurs objectifs.
Le premier, évidemment, tous ces GAFA se sont lancés à l’origine dans les câbles sous-marins parce qu’ils avaient des besoins. Ils jugeaient plus efficace économiquement et stratégiquement de bénéficier de leurs propres infrastructures plutôt que d’être dépendants des opérateurs, donc il y a une vraie logique économique et une logique d’utilisation au quotidien. Après, c’est vrai que du coup ça change un peu leurs relations avec les opérateurs, donc je pense que ce n’est pas quelque chose qui leur déplaît non plus.

François Sorel : C’est une menace pour des opérateurs télécoms ou pas ?

Jean-Luc Vuillemin : Encore une fois c’est un état de fait.

François Sorel : Est-ce qu’on peut imaginer demain Facebook ou Google dire « merci Orange, merci beaucoup, bonne journée, j’ai tout ce qu’il me faut, je n’ai plus besoin de vos services », en tout cas, on va dire pour le réseau entre les continents.

Jean-Luc Vuillemin : Je dirais que personne n’est obligé d’utiliser les câbles sous-marins de quelqu’un d’autre. Pourquoi on tire nos propres câbles sous-marins ? C’est pour bénéficier d’une certaine indépendance en la matière. Même si Google et Facebook sont intéressés par les câbles sous-marins, ils ne sont pas intéressés par tous les câbles sous-marins. Par exemple quand on fait un câble entre l’Europe et les États-Unis oui, tout le monde est intéressé. Quand vous faites un câble pour relier la Martinique et la Guyane pour sécuriser le trafic internet de la Guyane, je peux vous assurer que les concurrents ou les amateurs ne se bousculent au portillon. Et s’il n’y avait pas quelqu’un comme Orange pour le faire !

François Sorel : Et là il y a des enjeux de souveraineté. On est d’accord.

Jean-Luc Vuillemin : Absolument. Nous avons posé l’année dernière un nouveau câble justement sur la Guyane pour sécuriser l’accès de la Guyane, nous en avons posé aussi un deuxième sur Mayotte pour les mêmes raisons.

François Sorel : Ça veut dire qu’il n’y a plus problème d’internet haut débit aujourd’hui dans les départements des DOM-TOM.

Jean-Luc Vuillemin : Je ne dirais pas ça, mais je dirais que la connectivité internationale, l’accès à la connectivité internationale pour les DOM – les TOM c’est une autre problématique, les TOM ont gardé la compétence dans les câbles sous-marins, ce sont eux qui gèrent leur truc –, mais pour les départements d’outre-mer, il n’y a pas de problème d’accès à la capacité internationale.

François Sorel : Martinique, Guadeloupe, Réunion.

Jean-Luc Vuillemin : Il n’y a pas de problème de résilience des câbles qui les connectent.

François Sorel : Dernière petite question, ça passe vite.
On voit là encore que certains GAFA se lancent à la conquête de l’espace. Elon Musk fait partir sa fusée pour envoyer des gens on ne sait pas où, peut-être sur Mars dans quelques années, mais on voit qu’il y a aussi toute une bataille de l’Internet par satellite, avec des satellites à basse orbite qui permettraient peut-être de couvrir le monde entier. Qu’est-ce que vous en pensez techniquement ? Est-ce que c’est quelque chose qu’Orange surveille ? Et troisièmement, est-ce que ça peut être l’Internet de demain et faire de l’ombre aux câbles que vous venez de nous présenter ?

Jean-Luc Vuillemin : Ce qu’il faut savoir c’est qu’on continue, dans le monde et chez Orange, à utiliser du satellite, on a encore une activité de satellite. Les avions d’Air France, par exemple, utilisent les réseaux satellites d’Orange et, pour un certain nombre de pays ou de projections, on utilise également des capacités satellites qui sont mises en œuvre par Orange.

François Sorel : Ce sont des satellites à très haute orbite, des géostationnaires.

Jean-Luc Vuillemin : Ce sont principalement des géostationnaires, pas exclusivement parce qu’on commence à utiliser des constellations. Le principe des constellations est quand même relativement simple. Pour qu’un satellite soit stable, il faut le mettre haut, il faut le mettre à plusieurs dizaines de milliers de kilomètres de hauteur, donc ça prend du temps. Si vous descendez ce satellite pour diminuer le délai d’accès à ce satellite.

François Sorel : Ce que tout le monde recherche.

Jean-Luc Vuillemin : Ce que tout le monde recherche, il n’est plus stable, il bouge par rapport à la position d’un observateur posé sur la Terre.

François Sorel : Il bouge pourquoi ? Parce qu’il y a des vents ?

Jean-Luc Vuillemin : Le fait qu’un satellite en très haute altitude, sur ce qu’on appelle une orbite géosynchrone, ne bouge pas, c’est simplement qu’il tourne, mais il tourne à la même vitesse que la Terre.

François Sorel : Donc il est immobile, en fait.

Jean-Luc Vuillemin : Il est immobile. Quand on le rapproche de la Terre, les orbites ne sont plus synchrones et il tourne plus vite que la Terre. Donc pour l’observateur qui est situé sur la surface terrestre, le satellite est à défilement.

François Sorel : C’est pour ça que pour les projets d’Internet par satellites à basse orbite, il faut des centaines voire des milliers de satellites.

Jean-Luc Vuillemin : C’est ça, il faut plusieurs satellites, et on va bouger de satellite en satellite pour assurer la couverture.

François Sorel : Vous y croyez ou pas à cette technologie ?

Jean-Luc Vuillemin : Moi j’y crois. Ça marche. Il existe déjà des constellations, pas de plusieurs milliers de satellites comme veut le faire par exemple SpaceX, mais de plusieurs dizaines, oui, ça existe aujourd’hui et c’est déjà utilisé.

François Sorel : C’est l’avenir de l’Internet dans le monde ou pas à votre avis ?

Jean-Luc Vuillemin : Je pense que c’est un mode d’utilisation qui est intéressant, qui peut répondre à certains besoins. Maintenant, ce sont quand même des systèmes qui posent des problèmes capacitaires. On ne sait pas égaler la capacité d’un câble sous-marin avec ce satellite.

François Sorel : Comme la 4G.

Jean-Luc Vuillemin : Et puis en plus, surtout, il y a une vraie question de modèle économique. Il ne faut pas oublier que la planète est composée à 66 % d’eau. Quand vous dépensez plusieurs centaines de milliards d’euros pour couvrir la Terre, 66 % de votre investissement couvre les poissons.

François Sorel : Oui, c’est ça. Après, ce qui fait rêver, c’est qu’on peut imaginer que 98 % de la planète pourrait être couvert en très haut débit. C’est ça qui est fascinant.

Jean-Luc Vuillemin : Absolument. Tout à fait.

François Sorel : Quand on y pense on se dit qu’avec un petit récepteur on pourrait avoir une connexion équivalente à celle que qu’on a à la maison.

Jean-Luc Vuillemin : Exactement. Et en mobilité. Le gros intérêt c’est surtout la mobilité.

François Sorel : Orange investit là-dedans ? Ce sont des investissements colossaux !

Jean-Luc Vuillemin : Ce sont des investissements colossaux. Nous utilisons déjà les services d’un certain nombre de constellations, encore une fois des constellations à très basse altitude avec plusieurs milliers ou centaines de satellites il n’y en a pas encore aujourd’hui sur le marché. Celle qui était la plus avancée s’appelait OneWeb, elle a fait faillite il n’y a pas longtemps. Je peux vous dire qu’on travaille par exemple avec SpaceX, on fait des tests avec eux, on a une collaboration qui est assez fructueuse.
Après, ces satellites, enfin ces constellations posent aussi des tas d’autres problèmes.

François Sorel : La pollution de l’espace ?

Jean-Luc Vuillemin : Exactement. C’est plusieurs milliers de satellites en orbite basse. Ce sont des satellites très simplifiés, etc., mais effectivement ça pose le problème de la pollution spatiale, de l’accès aux couches hautes, ça pose la question des fréquences qu’utilisent ces satellites. C’est une problématique qui est complexe mais qui est extrêmement intéressante.
Après, ça ne viendra pas en substitution, je ne crois pas à la capacité des satellites à substituer les câbles sous-marins. Ce sera un complément.

François Sorel : Ce sera une porte d’accès. Mais est-ce que ça viendra demain concurrencer la 4G ou la 5G par exemple ? Est-ce que demain avec ça, je suis dehors, je pourrais capter un satellite, rapidement ?

Jean-Luc Vuillemin : En termes de norme, la 5G est le premier réseau qui permet d’utiliser le satellite comme moyen d’accès à un cœur de réseau 5G. Donc vous pouvez faire de la 5G en utilisant un satellite et en ayant un téléphone satellitaire ; c’est prévu, ça peut se faire.

François Sorel : Donc la 5G pourra demain être diffusée par satellite.

Jean-Luc Vuillemin : Elle pourra partir d’un téléphone portable traditionnel et atterrir à l’autre bout sur un lien satellite. Oui, c’est possible en 5G.

François Sorel : C’est passionnant. Notre temps est fini. J’avais encore plein de questions mais ça sera peut-être pour une prochaine fois. C’est passionnant. Merci beaucoup Jean-Luc Vuillemin d’avoir été avec nous.

Jean-Luc Vuillemin : Avec plaisir, merci.

François Sorel : De quoi j’me mail est terminé. Merci de nous avoir suivis. On sera là bien sûr la semaine prochaine. Si vous voulez réagir sur les sujets qu’on vient d’évoquer le hashtag DQJMM sur Twitter vous attend ou bien sur la page de Facebook De quoi j’me mail.
Portez-vous bien, bon week-end et on sera là la semaine prochaine.

Revue de presse de l'April pour la semaine 29 de l'année 2020

lun, 07/20/2020 - 22:28

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Numerama] Notepad++ prend parti pour Hong Kong, au risque de subir un nouveau raid de militants pro-Chinois

Le vendredi 17 juillet 2020.

Notepad++ dédie sa dernière mise à jour à Hong Kong, qui fait face à une ferme reprise en main de la Chine.

[L'Economiste] Les biens communs, ça sert à quoi?

Le jeudi 16 juillet 2020.

Quel est le point commun entre le programme d’aide aux médias marocains, Wikipédia et les gestes de précaution anti-Covid-19?

[Le Monde.fr] L’accord sur le transfert de données personnelles entre l’UE et les Etats-Unis annulé par la justice européenne

✍ Damien Leloup et Grégor Brandy, le jeudi 16 juillet 2020.

Ce dispositif adopté en 2016 est utilisé par la quasi-totalité des grandes entreprises américaines pour traiter les données personnelles (identité, comportement en ligne, géolocalisation…) de leurs utilisateurs européens.

Et aussi: [GinjFo] Ordinateurs de bureau, Windows continue de reculer au profit de Linux!

✍ Jérôme Gianoli, le mercredi 15 juillet 2020.

Les derniers chiffres de NetMarketShare confirment une tendance inquiétante pour Microsoft. Windows recule sur le marché des ordinateurs de bureau.

[Nextgen-Auto.com] Les pièces de F1 en open-source: révolution ou poudre aux yeux?

✍ A. Combralier, le lundi 13 juillet 2020.

Dans le but de rapprocher les performances entre équipes comme de réduire les coûts, la F1 a décidé d’une mesure encore peu commentée: mettre en place un système open-source, pour que les plans de certaines pièces soient accessibles à toutes les écuries. Ce système pourra être testé l’an prochain, mais sera surtout obligatoire en 2022, pour l’arrivée du nouveau règlement.

Protection des données de santé - Question de la sénatrice Morin-Desailly au ministre de la Santé Olivier Véran

ven, 07/17/2020 - 15:07


Titre : Protection des données de santé
Intervenant·e·s : Catherine Morin-Desailly, sénatrice - Olivier Véran, ministre des Solidarités et de la Santé - Gérard Larcher, président du Sénat
Lieu : Questions d'actualité au gouvernement - Sénat
Date : 16 juillet 2020, après-midi
Durée : 5 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : Catherine Morin-Desailly en 2019 - Licence Creative Commons Attribution-Share Alike 2.0 Generic.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Gérard Larcher, président du Sénat : La parole est à Madame la présidente Catherine Morin-Desailly pour le groupe de l’Union centriste. Vous avez la parole.

Catherine Morin-Desailly, sénatrice : Merci Monsieur le président.
Ma question s’adresse au ministre de la Santé. Il y a quelques semaines, lors des débats sur la loi d’urgence sanitaire, je vous interrogeais, tout comme votre collègue Cédric O, sur les raisons qui ont conduit le gouvernement à choisir Microsoft, un GAFAM, pour gérer les données de santé recueillies par la plateforme Health Data Hub. Une décision prise à l’automne 2019 dans des conditions opaques, dénoncées par un collectif d’experts, sans appel d’offres, au détriment de toute entreprise française ou européenne. La réponse de Cédric O, argumentant qu’il n’y avait aucune entreprise française capable de répondre aux exigences techniques, a été pour le moins édifiante. Elle a d’ailleurs soulevé beaucoup de protestations dans les jours qui ont suivi.
Depuis les débats vont bon train et je me réjouis qu’il y ait une prise de conscience, y compris dans les rangs de votre majorité, de menaces sérieuses pour notre souveraineté.
Je note que lors de la conférence de presse StopCovid vous avez, du coup, annoncé un nouvel appel d’offres. À cette occasion, le directeur de l’ANSSI [Agence nationale de la sécurité des systèmes d'information] a fortement suggéré de sélectionner des entreprises ayant leur siège en Europe. La présidente de la CNIL [Commission nationale de l'informatique et des libertés] ne dit pas mieux dans les avis1 formulés depuis.
Mon groupe aimerait connaître le calendrier de cet appel d’offres et les conditions d’élaboration de son cahier des charges devant permettre à des entreprises françaises de bâtir cette plateforme et ne pas dépendre de sociétés américaines, nous soumettant ainsi à une législation étrangère peu protectrice.
En l’état, Monsieur le ministre, deux questions fondamentales qui attendent des réponses politiques et non techniques.

  • Oui ou non, les données des Français sont-elles un actif stratégique majeur ?, auquel cas elles ne sauraient être mises entre les mains d’acteurs étrangers.
  • Oui ou non va-t-on se doter enfin d’une politique industrielle offensive permettant d’accompagner nos entreprises et appliquer la préférence communautaire comme ont su le faire les Américains, créant l’écosystème que nous connaissons, dans lequel nous vivons aujourd’hui ?

Gérard Larcher, président du Sénat : Pour vous répondre la parole est au ministre des Solidarités et de la Santé. Monsieur Olivier Véran, vous avez la parole.

Olivier Véran, ministre des Solidarités et de la Santé : Madame la sénatrice Morin-Desailly je vous remercie pour cette question comme je vous remercie pour l’implication que vous mettez dans ce dossier fondamental. J’ai d’ailleurs lu dernièrement dans la presse une interview et je m’attendais à cette question quand j’ai vu que vous alliez m’interroger, ce qui m’a permis de travailler un peu le sujet puisque, comme vous l’avez souligné vous-même, c’est une décision qui a été prise bien avant mon arrivée mais dont je suis évidemment, par essence même, solidaire. Néanmoins, vous soulignez, vous soulevez quelques questions fondamentales.
Première question que vous me posez : est-ce que les données de santé sont un enjeu de souveraineté ? Est-ce que c’est important ? La réponse est évidemment oui et je n’ai pas passé ici quelques journées et quelques nuits à débattre de StopCovid, Contact Covid et autres applications pour vous dire aujourd’hui le contraire. Les données de santé sont absolument essentielles dans leur exploitation, dans leur partage, dans leur sécurisation, et ces données doivent évidemment rester de gestion et de sécurisation françaises.
Deuxième question que vous posez : quand serons-nous à la hauteur, si je comprends bien et si je résume, des Américains ou d’autres puissances type GAFA dans la capacité de développer du numérique ? Madame la sénatrice, vous le savez comme moi, et personne ici n’est plus irresponsable qu’un autre, la France investit, ces dernières années, quelques centaines de millions d’euros dans les technologies du numérique, là où les États-Unis investissent plusieurs dizaines de milliards de dollars par an, sur la même période. C’est un enjeu majeur et Cédric O, qui était secrétaire d’État au Numérique, a évidemment énormément travaillé sur ce sujet-là.
Pour vous répondre, de ce que j’ai vu du dossier, et je l’ai vu dans son entièreté, il y a une phase de préfiguration au cours de laquelle il fallait agir vite, identifier un acteur capable de développer une plateforme de gestion et de sécurisation des données. Factuellement et juridiquement, le président de l’ANSSI l’a d’ailleurs conforté, Microsoft est considéré dans son entité gestionnaire des données de santé françaises comme une entité européenne, même si le groupe est américain.
Maintenant oui, il y aura un appel d’offres, puisque dans le fonctionnement au quotidien et dans la durée nous serons amenés à faire un appel d’offres et j’espère que nous pourrons identifier un grand acteur européen, voire pourquoi pas français, pour assurer, dans la durée, la gestion, le stockage et le partage de ces données.

Catherine Morin-Desailly, sénatrice : Ma question, Monsieur le ministre, est on ne peut plus d’actualité puisque aujourd’hui nous apprenons que considérant que les risques d’ingérence des services de renseignement américain sur les données des Européens étaient trop grands, la Cour de justice de l’Union européenne vient d’invalider2 l’accord de transfert des données dit Privacy Shield. Microsoft obéit bien à cette législation américaine, ne nous trompons pas !
Ce que je pense c’est qu’il nous faut désormais un cadre législatif qui impose la data residency : les données en Europe, traitées en Europe ! Il faut travailler à ce sujet. Monsieur le Premier ministre a annoncé un plan de relance de 40 milliards d’euros, je propose aussi qu’on investisse massivement dans ces filières pour garantir notre souveraineté industrielle et numérique.

Gérard Larcher, président du Sénat : Merci Madame la présidente.

[Applaudissements]

Algorithme, biaise-moi - Christophe Prieur - Binge Audio

ven, 07/17/2020 - 07:13


Titre : Algorithme, biaise-moi
Intervenants : Christophe Prieur - Thomas Rozec
Lieu : Programme B - Binge Audio
Date : juillet 2020
Durée : 18 min
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Les réseaux de neurones - Licence Creative Commons Attribution-Share Alike 3.0 Unported.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Bien qu’elles aient régulièrement fait la preuve de leur partialité, les machines, algorithmes et autres IA sont encore souvent présentés comme des outils neutres et objectifs. Sauf que, polémique après polémique, on s’aperçoit que cette technologie, de plus en plus présente dans nos vies, non seulement se nourrit des biais de la société, mais les amplifie parfois.
À quel moment ces biais se mettent en place entre conception et usage ? Pourquoi cette idée persistante de la machine détentrice d’une vérité objective ?

Transcription

Thomas Rozec : Salut. C’est Thomas Rozec.
À la fin du mois de juin, un fait divers américain a réveillé une question aussi cruciale qu’actuelle, celle de la place et de la potentielle nocivité des technologies de surveillance dans nos vies. L’histoire c’est la suivante, vous l’avez peut-être vu passer, un afro-américain, Robert Williams, s’est retrouvé 30 heures en détention après avoir été arrêté chez lui, devant ses enfants. Le motif : le logiciel de reconnaissance faciale utilisé par la police de Détroit, où il habite, l’avait identifié, avec la photo de son permis de conduire, comme étant responsable de plusieurs vols dans des bijouteries. Sauf que, vous me voyez venir, le logiciel s’est trompé. Heureusement, la police a fini par admettre l’erreur et à le relâcher sans que ça n’aille plus loin. Mais tout de même, voila qui remet à l’avant un problème pressant. Ces machines prétendument intelligentes, qui prennent un poids grandissant dans non existences, sont rongées par les mêmes biais racistes, sexistes, homophobes, qui grignotent nos sociétés. Pourquoi est-ce qu’on continue de faire semblant de l’ignorer ? Ce sera notre épisode du jour. Bienvenue dans programme B.

Voix off de Robert Williams : I picked up the piece of paper, put it next to my face and I said: This is not me. I hope you are not thinking all black people look alike. And then he says: the computer says it's you.

Thomas Rozec : Notre invité, pour en discuter, c’est Christophe Prieur. Il est docteur en algorithmes, sociologue du numérique et des données à Telecom Paris. J’ai commencé par lui demander comment se mettaient en place ces fameux biais au sein même des algorithmes.

Christophe Prieur : La technique qui fait que maintenant on parle énormément de l’intelligence artificielle depuis quelques années, c’est surtout avec le décollage des réseaux de neurones. Ce que font les réseaux de neurones c’est qu’ils s’appuient sur plein, plein d’exemples, des milliers, des millions d’exemples et, en s’appuyant sur ces exemples-là, ils s’adaptent. Donc on a plein, plein d’exemples de photos qui contiennent un visage et de photos qui ne contiennent pas un visage. Sur ces plein, plein d’exemples, les réseaux de neurones analysent les différentes composantes de l’image et, à la fin de cette analyse, ils regardent ce qu’on savait sur l’image, la connaissance à priori qu’on avait sur l’image c’est-à-dire il y a un visage ou il n’y a pas de visage, est-ce que oui ou est-ce que non ? Si c’est oui, le réseau de neurones revient en arrière sur les différentes analyses de cette image, sinon il adapte les paramètres d’analyse de cette image. À partir des différents exemples qu’il a vus il fait une prédiction et, en fonction de la réponse qu’on lui indique, il dit « mes prédictions étaient bonnes, n’étaient pas bonnes, etc. »
Un des éléments les plus évidents qui sont mis en avant quand on parle des biais des algorithmes c’est la base d’apprentissage, c’est-à-dire sur quoi l’algorithme s’est appuyé. Ces milliers et millions d’exemples c’était quoi ? Il y a des millions d'exemples. L’exemple classique c’est si l’algorithme s’appuie sur des visages de Blancs, il ne saura pas bien travailler sur des visages de Noirs parce que ça n’a absolument rien à voir étant donné la manière dont il traite l’image.
Parmi les autres exemples qui ont été mis beaucoup en exergue sur cette question des algorithmes, prenons Parcoursup.

Plusieurs voix off : À trois semaines seulement de la rentrée, 66 000 bacheliers ne savent toujours pas où ils iront en septembre. Parcoursup1 devait pourtant être la réponse du gouvernement pour mieux orienter les lycéens vers l’université. Certains risquent même de se retrouver sans rien du tout dans quelques jours à peine.
En tout cas cette semaine la plateforme a connu de nombreux bugs avec notamment la saturation de serveurs et des candidats qui étaient placés tout en haut de la liste d’attente avant que la plateforme ne les descende tout en bas de la liste.
Ce n’est plus Parcoursup c’est Pôle Emploi sup ! Hou là.

Christophe Prieur : Ce n’est pas de l’intelligence artificielle, ce sont des procédures opérées par des humains et qui sont très classiques. Simplement, dans la manière dont Parcoursup avait été organisé, on a explicité cette notion d’algorithme en disant « chaque établissement va appliquer un algorithme », ce qu’on appelle les algorithmes locaux. Chaque établissement a sa propre procédure. Quand on dit « un algorithme », du coup ça veut dire qu’on explicite plein de paramètres alors que si on disait que c’est le responsable de la formation qui va regarder les dossiers, qui va dire oui, non, évidemment il a des critères, mais ces critères ne vont pas toujours être objectivés par quelque chose qui tient dans une description très formelle.
Le fait d’expliciter l’algorithme et de dire que c’est un ordinateur, c’est une procédure automatisée qui va appliquer le choix, le filtre, le classement, alors ça veut dire qu’on met des paramètres dedans. Les biais de la personne qui rentre les éléments dans l’algorithme vont être là.
Ça, ce sont les biais de la personne qui va fixer les paramètres. En fait il y a aussi d’autres biais, ce sont les biais de la personne qui a conçu l’ensemble du système. C’est-à-dire que là où le responsable de la formation doit dire je vais entrer mes paramètres, en fait ce sont des cases dans un tableur Excel ou des champs dans un formulaire. On n’a pas la main sur le formulaire, sur comment est constitué le formulaire. Et là, ce sont les biais des personnes qui ont conçu.
Donc il y a toute une chaîne de biais dans les algorithmes. Les personnes qui conçoivent un système ne sont pas forcément les personnes qui vont l’utiliser. Parfois on dit « tiens ça ce sont les biais des personnes qui ont utilisé le système » alors qu’en fait, déjà au départ, il y avait les biais des personnes qui l’ont conçu.

Thomas Rozec : Ce qui m’étonne, m’étonnera toujours, c’est justement qu’on prête à la machine – je dis la machine au sens très large pour englober tous ces différents éléments techniques que peuvent être les algorithmes et l’intelligence artificielle qui sont des choses assez différentes finalement –, du fait qu’elle soit une machine, une forme de pensée objective, en tout cas de positionnement objectif qui fait qu’elle est censée être débarrassée des biais, comme si on évacuait le paramètre humain de l’histoire. On n’a pas envie de le voir.

Christophe Prieur : Oui. Je ne sais pas si vous avez remarqué, j’ai parlé d’« objectivé » et pas « objectif » parce qu’il y a un malentendu sur ce terme « objectif ». Objectif c’est quoi ? Il y a un objet qui dit « voilà quelle est la mesure ». Cet objet peut venir avec énormément de biais. L’objectivité ne veut pas dire que c’est la vérité absolue.
J’ai une collègue qui travaille sur la gestion de crise avec les pouvoirs publics. C’était au moment de l’Euro, un truc de foot, elle était dans une cellule de crise et observait comment travaillaient les personnes qui supervisaient l’organisation, la sécurité autour du Stade de France et dans la fan zone sur le Champ de Mars ou je ne sais pas quoi. Il y avait des capteurs pour mesurer combien de personnes. La fan zone était limitée en nombre de personnes qu’on pouvait accepter. Là, on peut dire que c’est un critère objectif : les capteurs disent combien il y a de personnes, donc on s’appuie sur ce critère objectif. Ça faisait un quart d’heure que le truc avait commencé et les chiffres indiqués par les capteurs étaient complètement délirants par rapport à ce que disaient les personnes sur le terrain.
Bon, eh bien le critère est objectif. Le critère objectif ce n’est pas le nombre de personnes présentes sur le terrain, ça c’est une espèce d’idéal qu’on essaye d’atteindre avec et des appareils de mesure et des gens sur le terrain et des procédures. Le critère objectif c’était le nombre indiqué par le capteur qui est positionné à tel endroit. Si le capteur déconne pour une raison ou une autre, le nombre objectif, la valeur objective, elle est tout simplement aberrante. Donc l’objectivité, c’est ça. L’objectivité c’est « je m’appuie sur des objets », et ces objets ont des biais dans leur conception, ils ont des problèmes dans leur fonctionnement, des problèmes qu’on connaît en général un peu mais que très souvent on sous-estime. Très souvent, dans la conception des systèmes, il y a vraiment une sorte de croyance un petit peu trop optimiste dans la fiabilité des procédures et des systèmes qui sont mis en place.

Thomas Rozec : À cette croyance s’ajoute, c’est ce que je disais juste avant, le fait qu’on exclut de fait, pensant la machine capable d’être objective, les paramètres humains, on les oublie.

Christophe Prieur : Oui, c’est ça. Les paramètres humains sont très très souvent négligés. Un des sujets très chauds du moment sur la science des données, sur l’intelligence artificielle, ce sont les biais des algorithmes. Les personnes qui travaillent sur les outils d’intelligence artificielle disent « regardez il y a des biais ». Là on dit « ce qu’il nous faut ce sont des informaticiens qui vont travailler sur les biais », alors qu’en fait les biais, effectivement, ce sont des problèmes qui viennent de la manière dont les outils sont conçus, de la manière dont les outils sont utilisés, donc ce dont on a besoin c’est d’étudier les facteurs humains, c’est d’étudier les humains et étudier les humains c’est un métier, ça s’appelle la sociologie. Donc c’est assez marrant, c’est assez ironique.
Il y a 15 ans le big data s’est développé, j’ai participé au développement du big data. On arrivait, on disait « regardez, on va pouvoir faire des trucs avec ces millions de données qu’on a, on va dire des choses sur les individus ». Les sociologues disaient « oui, mais il y a des biais avec ces trucs-là. » On disait « oui, c’est vrai qu’il va y avoir des biais, donc il faut faire attention ». Dix ans plus tard les informaticiens arrivent et disent « vous savez quoi, tous ces algos eh bien ils ont des biais et ne vous inquiétez pas, on est là, on va s’en occuper ! » Donc il y a un truc un petit peu ironique dans ce mouvement-là. Ce que je trouve d’autant plus ironique c’est que la solution que les informaticiens proposent c’est de dire « bon, on va recruter des informaticiens qui vont s’occuper des biais ».
J’ai fait le saut, je me suis rendu compte que cette idée est un peu absurde, sans vouloir ramener le truc à moi, mais je me suis rendu compte que c’était absurde et qu’étudier les gens qui utilisent les trucs et qui les conçoivent c’est un métier. Ce dont a besoin l’intelligence artificielle maintenant c’est de sociologues qui étudient comment ces systèmes-là se construisent.

Thomas Rozec : Et qui étudient aussi, c’est sans doute un des aspects pour l’instant les plus inquiétants, la manière dont non seulement les machines ont des biais, mais elles peuvent aggraver les biais, c’est-à-dire qu’elles les entretiennent et les renforcent. On a vu le cas de cette personne qui avait été faussement identifiée par une IA qui s’était trompée sur son visage parce qu’elle n’était pas capable de faire la différence entre deux visages noirs. On a aussi vu le fameux exemple qui a beaucoup tourné, une photo du visage de Barack Obama qui a été pixelisée et que l’IA a reconstituée sous la forme d’un visage blanc. On a tous ces exemples qui nous montrent que non seulement l’IA, les algorithmes arrivent avec des biais mais aggravent les bais des autres et les biais des humains notamment.

Christophe Prieur : Les aggraver, je ne sais pas. Disons plutôt que ça a au moins l’avantage de mettre le doigt sur des choses qui sont là et qu’on a trop tendance à oublier. Je ne suis pas sûr que ça les aggrave.
Là où ça devient problématique c’est à quel point cette vision-là est négligée. À quel point on oublie et on ne veut pas voir, quand on met en place des systèmes comme ça, le fait que les systèmes seront défaillants de toute façon. Ils seront toujours défaillants, donc qu’est-ce qu’on fait quand ça va foirer, c’est-à-dire souvent ?
On est tellement toujours dans mettre en avant le succès… On ne peut pas mettre en avant le fait qu’il y aura des problèmes, on ne peut pas ! Ou plutôt on devrait pouvoir, je pense que ce serait quelque chose qui serait très louable pour une personnalité politique de prendre des décisions courageuses, de dire « là on sait qu’on ne peut pas avoir la certitude absolue, mais on a aussi l’expertise scientifique de dire on sait aussi quoi faire dans les cas où le système déraille. » Donc on met en place une procédure et on met aussi en place tout ce qui l’accompagne et qui permet de dire que toutes les fois où ça va dérailler ce sera prévu, ou tout au moins envisagé.

Thomas Rozec : Moi, surtout ce que ça me fait dire, c’est qu’en fait on a déployé tout cette techno autour de nous, toute cette IA qui n’est pas juste expérimentale dans des labos avec des chercheurs qui testent des trucs, mais c’est dans des domaines cruciaux, importants. En fait, ça a des implications très concrètes dans nos vies parce que cette techno est déjà présente et elle a été déployée sans trop de précautions, notamment de ce point de vue-là.

Christophe Prieur : Un très bon exemple c’est l'application StopCovid. Je ne sais plus dans quel contexte Cédric O a dit ce truc, si c’était une déclaration publique, si c’était un texte qu’il a écrit pour l’Assemblée, pour je ne sais pas quoi, je ne sais plus. Je me souviens de ce texte dans lequel il expliquait à quel point toutes les précautions avaient été prises et que vraiment, s’opposer à ce projet StopCovid, c’était presque criminel. En fait, dans tout ce qu’il écrivait et toute la discussion sur StopCovid, toute cette dimension de la gestion de l’erreur, en fait tout avait été passé sous silence. Qu’est-ce qui se passe quand l’appli se trompe? « Oui, ce n’est pas grave. » Non, ce n’est pas une réponse. On ne peut pas dire que ce n’est grave. Non ! « La personne ira se faire tester et voilà ! » Non ! En fait, toute la mise en place de ce système, sans parler de la question de l’habituation à un système de surveillance, enfin si, en en parlant, ça fait partie des éléments aussi : rendre de plus en plus acceptable un système de surveillance, ça fait partie des conséquences qui doivent être envisagées. Je comprends bien qu’un ministre a tout intérêt à ne pas attirer l’attention là-dessus, mais c’était vraiment frappant de voir le déni. Entendre un ministre dire « non, il n’y a pas de problème ». OK, c’est la défaite de la pensée.

Thomas Rozec : Ce qui assez génial c’est qu’en fait il y a paradoxe qui me frappe dans tout ça, c’est que, d’un côté, il y a une espèce de réification de la machine qui fait que la machine sait, elle sait de toute façon qu’elle ne peut pas se planter, elle ne peut pas se tromper, ce n’est pas possible, elle est censée être intelligente la machine ! Et, en même temps, il y a ce côté, cette espèce de peur dystopique d’une intelligence artificielle dont on perdrait le contrôle. À chaque fois ça exclut le paramètre humain et ça exclut complètement le fait que ce n’est pas la machine qui se trompe ou ce n’est pas la machine qui sait tout, ce n’est pas la machine qui ceci, qui cela, ce sont les humains derrière, ce sont les humains qui la conçoivent et la machine n’est pas du tout capable d’être plus intelligente que nous puisque, de toute façon, elle ne dépend que de notre intelligence à nous.

Christophe Prieur : Oui, c’est ça. Merci de souligner ce point-là. Il y a, en fait, deux camps un peu extrêmes, l’utopie et la dystopie, et, pour moi, les deux sont un peu à côté de la plaque. Il ne faut jamais négliger, effectivement comme vous le disiez, le facteur humain pas seulement dans les personnes qui utilisent ces machins-là, mais derrière, c’est-à-dire les gens qui mettent en place ces systèmes-là sont aussi faillibles, ont aussi une conscience et se disent « tiens, en fait là ce que je suis en train de faire c’est moche » et puis parfois se dire « là on pourra faire quelque chose de beaucoup plus sympa, on aurait telle fonctionnalité qui permet de faire ci et ça ». Facebook n’a pas été mis en place pour vendre les données des utilisateurs à des trucs de pub. Ça s’est déployé parce que les gens communiquaient, échangeaient des blagues, retrouvaient leurs anciens amis, etc. La technique ne se déploie pas seulement pour faire du mal, elle ne se déploie pas seulement pour faire du bien, elle se déploie pour plein d’autres choses. Et surtout, le projet initial d’un dispositif technique est souvent très décalé par rapport à ce qui va en sortir et ce qui va en sortir ça aura évolué vers du mieux et vers du moins bien.

Thomas Rozec : Et puis il y a une forme de facilité intellectuelle, ou de paresse, à se dire que de toute façon c’est la faute de la machine ou c’est la machine qui contrôle, de tout faire reposer, justement, sur quelque chose qui ne serait pas humain. Il y a une forme de facilité à se dire du coup ce n’est pas trop de notre faute, finalement, si ça déconne ou si ça crée des biais, si ça entretient des biais, ce n’est pas trop de faute finalement puisque c’est la machine, elle est con la machine, c’est de sa faute aussi. C’est aussi une manière d’exclure notre responsabilité d’humain, soit d’usager, soit de créateur, de concepteur de l’équation.

Christophe Prieur : C’est vrai. J’ai souvent en tête cet exemple d’un guichet avec une personne en face qu’on considère comme abruti fini et qui dit « eh bien non, la machine ne veut pas ». Je trouve que cette image marche assez bien dans plein de situations et pas mal de discours peuvent se réduire à ça. En fait oui, si la machine ne veut pas, effectivement, « je sais bien que ce n’est pas la machine en vrai, qu’il faudrait aller voir, etc., mais tu m’emmerdes j’ai autre chose à faire. » Donc la réponse est tellement facile, dire « oui, c’est le système, c’est la faute au système. Oui, tu sais, je sais bien moi aussi, mais tu sais comment c’est. »
Je pense qu’à chaque étape de ces trucs-là on doit pouvoir dire « non, allez, OK, je sais que tu as la flemme, tu n’as pas envie, etc. », mais il faut quand même mettre des grains de sable régulièrement sinon le truc ne changera pas. En même temps c’est usant de sans arrêt se battre. On ne peut pas non plus se battre tout le temps contre des moulins à vent mais rien que distiller cette idée-là que non, ce n’est pas une machine, ce sont des humains, ce sont des décisions et les décisions ça se change, ça s’influe, on n’est pas toujours obligé de faire de l’excès de zèle par rapport à des procédures qu’on considère absurdes. Derrière les procédures ce sont des humains et ça se change !

Thomas Rozec : Et surtout, ce qu’il faut garder en tête, c’est éviter que ces débats sur les défauts et les voies d’amélioration des machines nous empêchent de nous poser des questions sur l’installation et la raison d’être de ces technologies de plus en plus invasives.
Merci à Christophe Prieur pour ses réponses.
Programme B c’est un podcast de Binge Audio préparé par Lorraine Besse, réalisé par Mathieu Thévenon.

Abonnez-vous sur votre application de podcast préférée pour ne manquer aucun de nos épisodes. Facebook, Twitter, Instagram pour nous parler. Continuez de bien vous laver les mains, de respecter les gestes barrière et de porter des masques, ne serait-ce que pour emmerder les logiciels de reconnaissance faciale et à demain pour un nouvel épisode.

De la lecture pour vos vacances : la transcription de chaque émission « Libre à vous ! », de septembre 2019 à juillet 2020

mer, 07/15/2020 - 13:50

Diffusée en direct chaque mardi de 15 h 30 à 17 h, Libre à vous ! est l'émission pour comprendre et agir avec l'April, l'association de promotion et de défense du logiciel libre.
De septembre 2019 à juillet 2020, 38 épisodes de l'émission ont ainsi été diffusés sur la radio Cause Commune, puis rendus disponibles sous forme de podcasts.
Chacun de ces podcasts a été transcrit et ces 38 transcriptions vous sont offertes à la lecture.

Profitez de vos vacances pour lire ou relire la transcription de chacune de ces émissions.

Dès le 1er septembre débutera la nouvelle saison, la saison 4, de l'émission Libre à vous !
Si vous voulez participer à notre groupe transcriptions, n'hésitez pas à nous rejoindre. Vous trouverez toutes les informations utiles sur le site dédié.

Bonne lecture ! Bonnes vacances et rendez-vous en septembre !

Émission du 3 septembre 2019

  • Annonces de rentrée
  • Chronique « La pituite de Luk »
  • Gendarmerie nationale et logiciels libres
  • Chronique de Xavier Berne sur la taxe foncière et la transparence des algorithmes publics
  • Annonces

Émission du 10 septembre 2019

  • Chronique « In code we trust » de Noémie Bergez sur les nouvelles lignes directrices de la CNIL sur les cookies
  • Initiation à la programmation pour les enfants (et les grands) avec Tony Bassette, Raphaël Pierquin et Ludine Pierquin
  • Chronique « Jouons collectif » de Vincent Calame sur la patrouille du Libre
  • Annonces

Émission du 17 septembre 2019

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi
  • Obsolescence programmée et projet de loi économie circulaire avec Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr
  • Chronique « Pépites libres » de Jean-Christophe Becquet sur le concours mondial de photos libres Wiki Loves Monuments
  • Annonces

Émission du 24 septembre 2019

  • Chronique « Le libre fait sa comm’ » de Isabella Vanni : interview de Montpel'libre
  • OpenStreetMap et State of the Map avec Christian Quest
  • Bénévalibre avec Laurent Costy
  • Annonces

Émission du 1er octobre 2019

  • Présentation de la licence Colibre avec Vincent Mabillot
  • Les logiciels libres pour l'audio et la musique assistée par ordinateur avec Olivier Humbert et Yann Collette
  • Chronique « La pituite de Luk »
  • Annonces

Émission du 8 octobre 2019

  • Chronique « Itsik Numérik » d'Emmanuel Revah sur les DRM
  • Logiciel libre et les seniors avec Alain Casier et Claude Guedj
  • Interview de Dimitri Even du groupe Stone From The Sky
  • Annonces

Émission du 15 octobre 2019

  • Chronique « Le libre fait sa com' » de Isabella Vanni sur les « tâches de fond » utiles pour la sensibilisation
  • Présentation de Regards Citoyens avec Benjamin Ooghe-Tabanou et David Gayou
  • Chronique de Xavier Berne sur les trois ans de la loi pour une République numérique
  • Annonces

Émission du 22 octobre 2019

  • Chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, sur le droit au déréférencement
  • Espaces publics numériques et logiciels libres avec Mélissa Richard, médiatrice numérique au Carrefour numérique, Cité des sciences et de l'industrie, et Manuela Geirnaert responsable du pôle multimédia de
  • la Bibliothèque francophone multimédia de Limoges
  • Chronique « Jouons collectif » de Vincent Calame, bénévole à l'April, sur le thème « Google est ton ami »
  • Annonces

Émission du 29 octobre 2019

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi sur les communs numériques
  • Le lecteur multimédia libre VLC avec Jean-Baptiste Kempf président de VideoLAN et fondateur de la société Videolabs
  • Chronique « Pépites libres » de Jean-Christophe Becquet, président de l'April, sur Wikidata (relier tous les savoirs du monde)
  • Annonces

Émission du 5 novembre 2019

  • Chronique « La pituite de Luk » : Google, la presse et les droits voisins
  • Les femmes et l'informatique
  • Interview au sujet du Pacte pour la Transition
  • Annonces

Émission du 12 novembre 2019

  • Chronique « Pépites libres » de Jean-Christophe Becquet, président de l'April, Musopen : la musique classique libérée
  • Open Food Facts, base de données sur les produits alimentaires faite par tout le monde, pour tout le monde, avec Anca Luca et Pierre Slamich
  • Chronique « Jouons collectif » de Vincent Calame, bénévole à l'April, sur la clause « Pas d'usage commercial » de certaines licences Creative Commons
  • Annonces

Émission du 19 novembre 2019

  • Interviews réalisées à l'Ubuntu Party de Paris
  • Chronique « Itsik Numérik » d'Emmanuel Revah sur Stallman was right
  • Interview de Catherine Dufour auteure du livre Ada ou la beauté des nombres
  • Interview de Romain Pierronnet pour l'événement Le Libre sur la Place à Nancy le 26 novembre 2019
  • Annonces

Émission du 26 novembre 2019

  • Chronique « In code we trust » de Noémie Bergez, avocate au cabinet Dune, sur le legal design et la legaltech
  • La stratégie logiciel libre de la MAIF et d'Enercoop
  • Chronique « Parole libre » de Xavier Berne, journaliste à Next INpact sur le projet de loi relatif à la lutte contre le gaspillage et économie circulaire, et plus particulièrement sur la partie consacrée à l'obsolescence programmée
  • Annonces

Émission du 3 décembre 2019

  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, qui présentera le GULL (groupe d'utilisateurs et d'utilisatrices de logiciels libres) eTHiX avec l'interview de Nicolas Barteau, médiateur numérique libre et président d'eTHiX
  • ANSSI, Agence nationale de la sécurité des systèmes d'information, avec l'interview de son directeur général Guillaume Poupard
  • Chronique « Pépites libres » de Jean-Christophe Becquet, président de l'April, sur le thème « Les polices libres n'ont pas mauvais caractère »
  • Annonces

Émission du 7 janvier 2020

  • Chronique « La pituite de Luk » sur Amazon
  • Interviews réalisées au POSS 2019
    • Pierre Baudracco, CNLL
    • Thierry Leblond, Scille
    • Bastien Guerry, DINUM et Blue Hats
    • Ludovic Dubost, XWiki
    • Olivier Cayrol, Logilab
    • Benoit Sibaud, LinuxFr
    • Pierre Baudracco, BlueMind
    • Brume et Neil, association 42l
    • Jean-Michel Armand, Hybird
    • Noémie Dagusé, Catherine Heintz, Laurent Wargon, Jean Couteau, Charles, Libre-Entreprise
  • Chronique « Parole Libre » de Xavier Berne, journaliste à Next INpact, sur le projet de loi anti-gaspillage
  • Annonces

Émission du 14 janvier 2020

  • Notes de lecture du livre consacré à Aaron Swartz Ce qu'il reste de nos rêves de Flore Vasseur, par Magali Garnero et Emmanuel Charpentier
  • Collectivités locales et le logiciel libre avec l'interview d'Olivier Simon, directeur Nancy Ville Numérique
  • Chronique « Jouons collectif » de Vincent Calame, bénévole à l'April, sur le thème de « la tentation de la réécriture »
  • Annonces

Émission du 21 janvier 2020

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi qui fait une rétrospective des chroniques « Pépites libres » de l’année 2019
  • Collectivités locales et le logiciel libre avec l'interview de Nicolas Vivant, directeur des systèmes d'information de la ville de Fontaine
  • Chronique « Partager est bon » de Véronique Bonnet, professeur de philosophie et administratrice de l'April, sur le thème « Quand le logiciel libre n'est pas supérieur, en pratique »
  • Annonces

Émission du 28 janvier 2020

  • Chronique « Itsik Numérik » d'Emmanuel Revah sur Facebook
  • « Health Data Hub » la plateforme d'exploitation des données de santé avec Stéphanie Combes, directrice de la plateforme, Adrien Parrot et Nicolas Paris de l'association InterHop (les hôpitaux français pour l'interopérabilité)
  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April : interview de Jean Carratala, secrétaire de Cenabumix, GULL (groupe d'utilisateurs et d'utilisatrices de logiciels libres) de la région d'Orléans
  • Annonces

Émission du 4 février 2020

  • Présentation de Meta-Press.es, une extension pour Firefox qui permet de faire de la veille sur la presse en ligne
  • Le logiciel libre et le monde éducatif avec Sébastien Canet, enseignant de technologie en collège à Nantes, Louis-Maurice De Sousa, professeur de technologie en collège et Laurent Joëts, professeur de technologie en collège, et référent numérique de l'établissement
  • Chronique « Partager est bon » de Véronique Bonnet, professeur de philosophie et administratrice de l'April sur le thème des « raisons d'écrire des logiciels libres »
  • Annonces

Émission du 11 février 2020

  • Interview de Pablo Rauzy, maître de conférences à l'université Paris 8 au sujet de la récente motion annonçant que la L1 d'informatique (première année de licence) ne sera pas ouverte l'année prochaine
  • Les plates‑formes participatives libres : Decidim notamment et Agorasso que Code for France « met gratuitement à disposition des associations pour ouvrir leur gouvernance et coconstruire leur action » (Agorasso étant basée sur Decidim). Les personnes invitées : Valentin Chaput et Léna Dumont d'Open Source Politics
  • Chronique « Parole Libre » de Xavier Berne, journaliste à Next INpact sur la plateforme de pétitions du Sénat
  • Annonces

Émission du 18 février 2020

  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, avec l'interview de Tristan Duval du projet Sortir du cadre, un film et une série documentaire sur les artistes et les œuvres sous licences libres et ouverte dans l’art
  • Nextcloud, un logiciel libre, de sites d'hébergement et de partage de fichiers, d’agendas, de contacts et bien d’autres fonctionnalités, avec Nina Cercy, Représentante France chez Nextcloud, et François Poulain de la société Cliss XXI et membre de l'équipe du Chapril (site de l'April qui propose des services libres)
  • Chronique « La pituite de Luk » sur le thème « mieux vaut demander pardon que demander la permission »
  • Annonces

Émission du 25 février 2020

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi sur le thème du logiciel libre au collège
  • La question du burn-out avec Jérôme Petazzoni, informaticien qui a fait une conférence sur sa propre expérience du burn-out et Maryline Gomes, autrice de Sortir du burn-out et animatrice de l'émission Travail à cœur sur Cause Commune
  • Chronique « Jouons collectif » de Vincent Calame qui portera sur « l’énigme de la dernière version » lorsque l'on travaille à plusieurs sur un document commun
  • Annonces

Émission du 3 mars 2020

  • Interview de Quentin et Audrey de l'association Picasoft de l'Université de Technologie de Compiègne. Enregistrement fait en décembre 2019 lors du Paris Open Source Summit
  • Libre en Fête. Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, a interviewé trois personnes qui participent à cette initiative.
  • Chronique « La pituite de Luk » sur le thème de la viralité
  • Annonces

Émission du 10 mars 2020

  • Chronique « Partager est bon » de Véronique Bonnet sur le thème « Mesures à la portée des gouvernements pour promouvoir le logiciel libre »
  • Financement de logiciels libres avec le retour d'expérience de la société XWiki
  • Interview du Consortium international des journalistes d'investigation (ICIJ) qui a reçu récemment le prix du Meilleur projet logiciel libre remis au salon Paris Open Source Summit en décembre 2019, pour leur logiciel libre Datashare, une plateforme d'indexation et de partage sécurisé d'informations pour les journalistes d'investigation
  • Annonces

Émission du 17 mars 2020

  • MuseScore, un logiciel libre d'édition de partitions musicales
  • Achat de matériel et logiciels libres : ordinateurs de bureau, ordinateurs portables, téléphones mobiles
  • Chronique « Jouons collectif » de Vincent Calame, bénévole à l’April, sur le télétravail
  • Annonces

Émission du 24 mars 2020

  • Chronique « Itsik Numérik » d'Emmanuel Revah sur Mozilla
  • Agilité (un groupe de pratiques basées sur l'auto-organisation d'une équipe, l'ajustement permanent et mutuel… pour viser la satisfaction des équipes et de la structure cliente) et le logiciel libre
  • Chronique « Le libre fait sa comm’» d'Isabella Vanni sur le projet du jeu du Gnou, avec une interview de mohican, bénévole à l'April
  • Annonces

Émission du 31 mars 2020

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi et son analyse de l'évolution des sujets du Décryptualité de ce dernier mois
  • La politique logiciel libre de Fleury-les-Aubrais avec William Gonzalez, délégué à la protection des données et membre de l'April
  • Échange avec William Gonzalez sur son livre Une expérience libre
  • Annonces

Émission du 7 avril 2020

  • Chronique « La pituite de Luk » sur le confinement
  • Nouvelles de Framasoft et du Collectif CHATONS, Collectif des Hébergeurs Alternatifs,Transparents, Ouverts, Neutres et Solidaires, avec Angie Gaudion
  • Le confinement et l'école avec Laurent Joëts, professeur de technologie en collège et référent numérique de son établissement
  • Présentation de Jitsi, logiciel libre de visioconférence, avec Emil Ivov son créateur
  • Annonces

Émission du 14 avril 2020

  • Interview d’Éric Fraudain à propos d’auboutdufil.com, un site dédié à la musique libre
  • Des nouvelles du Chapril avec Christian Pierre Momon, administrateur de l’April
  • L'archivage des courriels dans la chronique « Jouons collectif » de Vincent Calame, bénévole à l'April
  • Interview de Marc Rees, journaliste et rédacteur en chef de Next INpact
  • Annonces

Émission du 21 avril 2020

  • Interview de Laurent Leemans qui fait de la musique libre
  • Chronique « Itsik Numérik » d’Emmanuel Revah sur le thème Merci le Libre ou Be Kind Document
  • Interview de Ludovic Dubost, créateur du logiciel XWiki, PDG de la société XWiki SAS qui développe XWiki et CryptPad
  • Interview de Vincent-Xavier Jumel, professeur de mathématiques dans un lycée de Saint-Denis (93), sur l’école et le confinement
  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, sur son expérience personnelle avec les outils de visioconférence libres en temps de confinement, les réactions de son entourage
  • Annonces

Émission du 28 avril 2020

  • Chronique « Partager est bon » de Véronique Bonnet, professeur de philosophie et vice-présidente de l'April, sur l'importance d'utiliser la dénomination GNU/Linux (à partir du texte « Qu’y a-t-il dans un nom ? » de Richard Stallman)
  • Échange avec Julien Négros pour prendre des nouvelles d’Enercoop
  • Le logiciel libre Jami
  • Entretien avec François Poulain, trésorier de l'April et artisan du logiciel libre chez Cliss XXI
  • Annonces

Émission du 5 mai 2020

  • Logiciels libres dans l'Éducation nationale avec Luc Bourdot, responsable du Pôle national de compétences logiciels libres, Pôle EOLE ; chargé du pilotage des développements et de l'intégration des composants libres au sein de l'équipe de la plateforme apps.education
  • Échange avec Pierre-Yves Dillard pour prendre des nouvelles d'Easter-eggs, entreprise spécialiste en logiciels libres
  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, avec l'interview de Marc Hépiègne de l'association Oisux, groupe d'utilisateurs et utilisatrices de logiciels libres dans l'Oise
  • Annonces

Émission du 26 mai 2020

  • Chronique « Partager est bon » de Véronique Bonnet, professeur de philosophie et vice-présidente de l'April, sur le thème « Quel niveau de surveillance la démocratie peut-elle endurer ? »
  • Framabook : les Framabooks sont dits « livres libres » parce qu’ils sont placés sous une licence qui permet au lecteur de disposer des mêmes libertés qu’une personne utilisatrice de logiciels libres.
  • Inventaire : une application web libre permettant de faire l’inventaire de ses livres et de le partager avec ses amis et groupes, ou même publiquement.
  • Annonces

Émission du 2 juin 2020

  • Entretien avec Nicolas Dandrimont, ancien président de Debian France et membre de l'équipe travaillant sur le projet Software Héritage
  • Échange avec Christian Quest, collaborateur de la députée Paula Forteza, coprésidente du groupe Écologie Démocratie Solidarité, sur le travail parlementaire à l'Assemblée nationale
  • Entretien avec Laurent Costy, vice-président de l'April, en charge du groupe Libre Association, comment les associations ont pu s'adapter au confinement
  • Annonces

Émission du 9 juin 2020

  • Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, sur le thème « Naïveté, cynisme, danger. Mark Zuckerberg et Facebook »
  • « Internet est-il vraiment une zone de non-droit ? », argument régulièrement invoqué par les adversaires des libertés en ligne, avec Christiane Féral-Schuhl, présidente du Conseil national des barreaux, avocate spécialiste des nouvelles technologies et Marc Rees, rédacteur en chef de Next INpact
  • Chronique « La pituite de Luk » sur Parcoursup et l'éducation en général
  • Annonces

Émission du 16 juin 2020

  • Chronique « In code we trust » de Noémie Bergez, avocate, qui porte sur l'application StopCovid sous l'angle du traitement des données personnelles des personnes utilisatrices
  • « Au cœur de l'April ». Plusieurs personnes actives au sein de l'April – Antoine Bardelli, Magali Garnero, Quentin Gibeaux, Isabella Vanni, Laurent Poujoulat, Frédéric Couchet – parlent des groupes de travail, des activités de l'April, son fonctionnement
  • Interview de Béatrice Pradillon, de l'ADULLACT, pour présenter le label Territoire Numérique Libre
  • Annonces

Émission du 23 juin 2020

  • Chronique « Partager est bon » de Véronique Bonnet, professeur de philosophie et vice-présidente de l'April, sur le thème « Dire non à l'informatique injuste, même une seule fois, est une aide »
  • Le réemploi informatique, le reconditionnement pour la réutilisation avec Isabelle Carrère d'Antanak et Joyce Markoll de l'Atelier Orditux Informatique
  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, sur son retour d'expérience concernant la recherche d’un outil adapté pour les projets du groupe de travail Sensibilisation
  • Annonces

Émission du 7 juillet 2020

  • Chronique « Itsik Numérik » d'Emmanuel Revah sur le thème « Râlages en vrac d'un vieux libriste »
  • « Au cœur de l'April », avec plusieurs personnes actives au sein de l'April : Marie-Odile Morandi, Étienne Gonnu, Christian Momon, Elsa Pottier, François Poulain
  • Chronique « Le libre fait sa comm' » d'Isabella Vanni, coordinatrice vie associative et responsable projets à l'April, consacrée aux activités de Linux Azur
  • Annonces

Faut-il breveter les logiciels ? SATT Aquitaine Science Transfert

mer, 07/15/2020 - 08:56


Titre : Faut-il breveter les logiciels ?
Intervenant·e·s : Céline Serrano - Pierre Breesé - Hervé Lardin - Owen Lagadec-Iriarte - Jacky Chartier
Lieu : Les tables rondes de la recherche - Aquitaine Science Transfert®
Date : novembre 2013
Durée : 2 h 03 min
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : April, Les 4 dangers, Autocollant Brevets logiciels - Licence : sauf mention contraire, LAL version 1.3 ou ultérieure, CC-BY-SA version 2.0 ou ultérieure et GNU FDL version 1.3 ou ultérieure (en savoir plus)
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Deux visions s'opposent souvent entre les défenseurs du logiciel libre et les adeptes de la protection par brevet. Quelle stratégie adopter entre les différents modèles économiques du logiciel libre ou propriétaire, du logiciel gratuit ou payant ? La vision des industriels diffère-t-elle de celle des établissements de recherche publique ? Quels bénéfices et difficultés pour valoriser un logiciel selon les différents modes de protection possibles ?

Transcription

Jacky Chartier : Je propose de commencer cette cinquième table ronde. C'est la cinquième d'une série de huit tables rondes qui se sont déroulées depuis quelques mois maintenant et qui se termineront avant la fin de cette année. La table ronde d'aujourd'hui s'intitule « Faut-il breveter les logiciels ? ». Cette table ronde est organisée par Aquitaine Science Transfert. Aquitaine Science Transfert est la société d’accélération du transfert technologique de la région Aquitaine. Les missions d'Aquitaine Science Transfert, juste en quelques mots avant de rentrer clairement dans le vif du sujet, sont pour le compte de ses actionnaires que sont l'université de Bordeaux, l’université de Pau et des Pays de l'Adour, le CNRS et l'Inserm, principalement d'assurer le suivi du portefeuille de titres ou d'assurer, finalement, la valorisation des résultats de la recherche, avec un pan important en termes de maturation, c'est-à-dire simplement investir le juste nécessaire qui permet à ce que les résultats de la recherche et des laboratoires de nos actionnaires puissent être correctement appréhendés et saisis par les entreprises ou les entités vers lesquelles on souhaite effectuer ce transfert. Voilà en quelques mots les missions d'Aquitaine Science Transfert.

Pour cette table ronde nous sommes en retransmission aussi au sein de l'université de Pau et des Pays de l'Adour et nous sommes aussi en retransmission en direct par Internet. Nous pourrons, à certains moments, avoir des questions qui pourront venir de la part des personnes connectées par le Web, c'est pour ça que, du coup, je ne manquerai pas à certains moments de regarder sur la tablette si certaines informations ou si certaines questions ou précisions nous arrivent.

Pour cette table ronde nous avons fait le choix d'avoir quatre intervenants qui vont se présenter ensuite rapidement. Céline Serrano qui est responsable du Patrimoine Brevets à la Direction du transfert et de l'innovation au sein d'Inria, Pierre Breesé, qui est président de Fidal Innovation, Hervé Lardin, qui est le président de ProLibre et Owen Lagadec-Iriarte, qui est le président d'IKlax. Je vous propose peut-être en quelques mots de commencer simplement par une courte présentation de qui vous êtes.

Céline Serrano : Céline Serrano. Je suis à l'Inria l'Institut National de Recherche en Informatique et Automatique, à la direction du transfert et de l'innovation, donc je gère le portefeuille de brevets de l'Inria, portefeuille de brevets qui est de taille très modeste, cent vingt familles, puisque la plus grosse production de l'Inria c'est essentiellement du logiciel. Donc voilà. Petit portefeuille de brevets mais qui m’occupe quand même pas mal.

Pierre Breesé : Pierre Breesé. Je suis conseil en propriété industrielle, mandataire européen en brevets. Je suis physicien de formation au départ, avec une formation complémentaire en droit de la propriété industrielle. J'ai commencé à travailler dans la recherche publique à L'Inserm. Il se posait d'ailleurs déjà des questions de protection des logiciels dans le domaine de l'imagerie notamment. Je dirige un cabinet de conseil en propriété industrielle qui intervient auprès de startups, dans la recherche publique et de grandes entreprises et je suis souvent confronté à la question de « faut-il breveter ou non des innovations dans le domaine, pour utiliser la langue de bois, des inventions mises en œuvre par ordinateur »?

Hervé Lardin : Bonjour. Je suis Hervé Lardin. Je suis ici pour représenter l’association ProLibre1 qui est le groupement des entreprises logiciel libre en Aquitaine et je suis également, évidemment, un entrepreneur dans ce domaine, selon qu'on me considère par un angle ou par un autre, je suis soit une société de services en logiciel libre, soit un éditeur en logiciel libre, les deux ayant tendance à se confondre. Nous en parlerons plus tard.

Owen Lagadec : Bonjour. Je suis Owen Lagadec, le président d'IKlax et de la société Apps and Co. Mon expérience dans les brevets c'est d'avoir conçu un brevet en partenariat avec le LaBRI, Laboratoire Bordelais de Recherche Informatique, que nous avons amené jusqu'à devenir une énorme MPEG. Ça a été une des justifications de la brevetabilité, on en parlera tout à l'heure. Toute la journée je fais un peu comme mon collègue à gauche, je fais de la prestation de service informatique, donc je suis amené à développer de nombreuses lignes de code et la question de la brevetabilité se pose bien souvent.

Jacky Chartier : Avant de rentrer, j’allais dire dans le vif du sujet, ce qu'on propose c'est d’aborder avec Pierre qui est peut-être le plus juridique des membres autour de la table et sans rentrer exclusivement et sans orienter l'ensemble de notre table ronde autour de questions juridiques, mais c'est un peu de rentrer avec Pierre Breesé justement, sur quelques notions et peut-être quelques définitions qui vont permettre à tout le monde d’être d'accord sur, finalement, « de quoi parle-t-on quand on parle de logiciel, quand on parle de programme d'ordinateur, quand on parle peut-être d'algo, en quelques mots.

Pierre Breesé : Un empereur chinois expliquait que pour que son peuple vive en harmonie il faut lui offrir un dictionnaire. Et je pense qu'on pourra débattre en harmonie si on utilise les mêmes mots pour désigner la même chose et c'est vrai que dans ce domaine entre guillemets « de la brevetabilité des logiciels », beaucoup de confusions viennent de ce qu'on n'utilise pas forcément les bons termes. Donc on va partager les définitions pour être sûrs qu'on parle des mêmes choses.
Quand on parle de programme d'ordinateur, que ce soit pour le juriste ou pour le technicien, pour le développeur, c'est une liste d'ordres qui indique à un ordinateur ce qu'il doit faire. On est à peu près d'accord là-dessus.
Le terme de code, qu'on va probablement utiliser les uns et les autres, c'est un jeu d'instructions spécifiques à un type de processeur qui va être exécuté par une machine, donc un processeur, pour réaliser le programme informatique. Il peut être en langage machine, direct, ou dans un langage évolué qui ensuite est interprété.
Le logiciel, puisque c'est le terme qui est employé dans cette thématique, le logiciel qu'on utilise tous, OpenOffice ou Word ou d'autres, est souvent constitué de plusieurs programmes d'ordinateur, parfois un très grand nombre de programmes d'ordinateur, des DLL, des applications, parfois des programmes extérieurs à l'ordinateur qui fonctionnent ensemble.
L'algorithme, on peut le dire, c'est le précurseur du programme d'ordinateur, c’est la représentation schématique de la succession d'instructions qui vont être exécutées par le programme d’ordinateur.
Juste pour terminer sur cette présentation terminologique, quand on parle de propriété intellectuelle, qu'est-ce que ça recouvre ? Ça recouvre les droits de propriété industrielle dont le brevet, la marque, les dessins et modèles, et la propriété littéraire et artistique ou, plus simplement, le droit d'auteur. Dans tous les cas la propriété intellectuelle c'est juridiquement un droit d'interdire : le détenteur d'un droit de propriété intellectuelle a le droit d'interdire à un tiers l'usage de ce qui est protégé. Lorsqu'il s'agit d'un brevet, le titulaire du brevet est en droit d'interdire à un tiers l'exploitation de l'invention brevetée, et l'invention brevetée c'est aujourd’hui une solution technique à un problème technique.
Celui qui est détenteur d'un droit d'auteur est en droit d'interdire à quiconque l'utilisation de ce qui est protégé par le droit d'auteur et peut l'organiser en concédant une licence qui peut être libre ou qui peut prendre des formes diverses et variées.

Jacky Chartier : OK. Donc concrètement, si quelqu'un ou, si par exemple, je code et je crée un logiciel, quels sont mes droits et comment je peux revendiquer dans un premier temps ce que j'ai fait et qu'il est à moi ?

Pierre Breesé : Ce qu'un développeur va produire, bien sûr va se traduire par un programme, par du code, qui peut faire l'objet de deux types de droit de propriété intellectuelle.
Il peut faire l'objet d'un brevet, il peut être considéré comme une invention brevetable, on y reviendra tout à l'heure et, à ce moment-là, c'est le régime des inventions du salarié qui s'applique et il s'applique en ce sens que les inventions réalisées par un salarié dans le cadre de sa mission inventive appartiennent à l'employeur. Et le législateur, en matière de brevet, a été relativement généreux puisqu'il a prévu que, certes l'invention brevetable appartient à l'employeur, mais le salarié a droit à une rémunération supplémentaire.
Mais cette création, ce développement, peut aussi, est aussi constitutif d'une œuvre de l’esprit, protégée par le droit d'auteur. Le droit d'auteur, dans le domaine de l'informatique, connaît une exception au régime général puisque, en France, les droits d'auteur portant sur un logiciel créé par un salarié appartiennent à l'employeur. Donc même statut que pour les brevets, avec une petite différence, c'est que là, le législateur n'a pas jugé opportun de prévoir une rémunération supplémentaire. Bien sûr l’employeur peut, s'il est généreux, le faire, mais en tout cas la loi ne prévoit pas, de façon nécessaire, cette rémunération supplémentaire au profit du développeur salarié qui a produit un logiciel protégé par le droit d'auteur.

Hervé Lardin : Je voudrais juste apporter une petite précision. Le brevet appartient à l'arsenal juridique existant dans le domaine général de la propriété industrielle, par contre le brevet n'appartient pas à l'arsenal juridique propre au domaine du logiciel. Le logiciel est clairement exclus du domaine de la brevetabilité. Il ne peut pas y avoir de protection d'un logiciel par l'utilisation du brevet.

Pierre Breesé : C'est un sujet qui est forcément polémique. Bien sûr, je ne partage pas ce point de vue. Le logiciel, comme un fauteuil, comme une table, est un objet qui peut être brevetable ou pas suivant certaines circonstances.
La remarque que vous avez faite s'appuie effectivement sur une formulation que j'admets, un peu amphigourique, du code de la propriété intellectuelle en matière de brevet et qui a été reprise dans toutes les législations internationales. Comment est formulée cette disposition ? Je comprends votre remarque. C'est un article qui est divisé en trois alinéas :

  • le premier alinéa indique que sont brevetables les inventions nouvelles, inventives, et susceptibles d'applications industrielles. Jusque-là ça semble clair. Juste une remarque, vous remarquez qu'on n'a pas déterminé ce qu'est une invention, alors que dans la vieille loi de 68, c’était défini ;
  • deuxième alinéa. Ce deuxième alinéa précise que toutefois des éléments sont exclus de la brevetabilité, ne sont pas considérés comme des inventions brevetables au sens du premier alinéa un certain nombre de choses : les découvertes scientifiques, les méthodes intellectuelles en tant que telles et les programmes d’ordinateur. Alors on dit eh bien voilà, vous avez tout à fait raison, les programmes d'ordinateur ne sont pas brevetables, l'alinéa deux le précise expressément ;
  • l'alinéa trois, précise toutefois que ces éléments n'en sont exclus qu'en tant que tels. Alors là vous voyez effectivement la difficulté d'interprétation : qu'est-ce qu'un programme d'ordinateur « en tant que tel » qui n'est pas brevetable et un programme d'ordinateur « pas en tant que tel » qui est brevetable ? Je reconnais que ça peut sembler un peu byzantin mais, heureusement, la jurisprudence a aujourd'hui apporté un éclairage sur ce qui est considéré comme une invention et relève donc du brevet, y compris dans le domaine de l'informatique, et ce qui est un programme d'ordinateur « en tant que tel » ou une méthode intellectuelle ou une méthode économique « en tant que telle » qui n’est pas brevetable. Et ça a été l'objet de 20 ans de débats, de jurisprudence, mais qui est en train de se stabiliser, avec une évolution importante des États-Unis qui étaient très laxistes et qui se sont rapprochés très fortement de la position française.

Et quand je disais, tout au début, que j'utilisais un peu la langue de bois pour parler de brevetabilité des inventions mises en œuvre par ordinateur, c'est parce que le législateur a été vigilant à ne pas créer de confusion en parlant de brevetabilité des programmes d’ordinateur ou des logiciels, comme on l'a fait pour cette table ronde, mais en utilisant ce terme plus neutre, je pense que ce sera un point qui sera abordé tout à l'heure. Aujourd’hui on admet que dans le domaine de l'informatique on a un résultat qui est brevetable lorsqu'on est face à une solution technique à un problème technique, y compris lorsqu’il s'exprime sous une forme de code informatique.
Je vais vous donner des exemples de logiciels entre guillemets « brevetés » que vous utilisez tous les jours, notamment ceux qui nous écoutent à distance. Les logiciels, les codecs de compression et de décompression de fichiers audio ou vidéo sont protégés, certains sont maintenant dans le domaine public, mais à un moment il y avait 435 brevets qui portaient sur la compression, qui a fait ensuite l'objet de la norme MPEG. Pourquoi est-ce que ce sont des solutions qui sont brevetables ? Parce qu'elles apportent une solution technique à un problème technique qui est, par exemple, de réduire la taille du fichier tout en préservant la qualité d'écoute inchangée ; ou qui permettent de réduire la bande passante nécessaire pour transmettre une information sans en dénaturer le sens. Donc on est bien dans une solution technique à un problème technique, qui devient brevetable si elle est nouvelle et inventive, et qui s'exprime aussi, bien sûr, sous forme de code qui est protégé par le droit d'auteur. Cette solution technique qui consiste à échantillonner à telle fréquence le signal puis à appliquer une transformation, une formule de Fourier, rapide, puis à supprimer telle fréquence etc., peut être implémentée sous un grand nombre de formes logicielles, un grand nombre de codes. Mais ce qui sera protégé, c'est la formulation technique qui est, disons, le précurseur du code informatique qui sera ensuite développé et protégé par le droit d'auteur, éventuellement exploité sous une forme libre.

Jacky Chartier : Donc on comprend un peu la démarche relative à la notion, peut-être, de brevetabilité des solutions techniques à un problème technique qui peuvent être mises en œuvre par un ordinateur. Alors peut-être directement quelque chose qu'on entend aussi souvent notamment en relation avec la protection ou la notion de protection des logiciels. Beaucoup de gens nous disent « moi j'ai protégé mon logiciel à l'Agence de Protection des Programmes », justement cette notion de « j'ai protégé mon logiciel à l’Agence de Protection des Programmes ». Déjà est-ce que l'Agence de Protection des Programmes — peut-être Céline Serrano, Owen Lagadec — protège en tant que tel le logiciel ? Est-ce qu'on est dans une démarche obligatoire, contraignante auprès d'un office ? Finalement qu'est-ce que ça peut signifier quand on entend « j'ai protégé mon logiciel auprès de l'Agence de Protection des Programmes » et est-ce qu'il ne l'est pas déjà avant même de faire cette démarche ?

Céline Serrano : Avant même de faire la démarche je pense qu'on a automatiquement le droit d'auteur, le copyright dès la création en fait du logiciel. À priori il n'est pas obligatoire de déposer à l'Agence de Protection des Programmes.
A l'Inria c'est quelque chose qu'on pratique énormément, on en fait 150 par an à peu près, dans un but d'avoir une preuve de la création de cette œuvre logicielle et d'avoir une reconnaissance de la paternité Inria.
Ça nous permet aussi, en interne, de tracer des auteurs, d'avoir les auteurs du logiciel et, en même temps, les ayants droit, c'est-à-dire les organismes qui ont aussi contribué à la production de ce logiciel, puisque la plupart des équipes de l'Inria sont des équipes communes avec des partenaires académiques. Et finalement, à l'Inria, ça va aussi nous permettre de recenser une partie de la production logicielle. On va donc aussi utiliser le dépôt APP comme une façon de recenser ce qu'on produit. Mais ce n'est pas du tout obligatoire. C'est beaucoup moins coûteux qu'un brevet, c'est plus simple. Il suffit de graver un ou deux CD, donc c'est une procédure qui est assez simple et peu coûteuse, et qui peut, en cas de litige, nous apporter la preuve de la création du logiciel.

Pierre Breesé : Effectivement c'est important d'avoir à l'esprit qu'une œuvre de l’esprit, et notamment un programme d'ordinateur, est protégée sans qu'on n'ait rien à faire, dès la conception de l’œuvre. C'est-à-dire même avant qu'on l'ait transcrite sous forme de lignes de code, etc. Néanmoins, pour se prévaloir de ses droits, il faut pouvoir en apporter la preuve et le rôle de l'APP est donc un tiers de confiance à qui on peut faire confiance sur le fait que ce qui a été déposé a bien été conçu à une date antérieure et correspond bien à ce qu'on a déposé. Donc c'est un moyen de preuve, utile pour identifier ce dont on peut se prévaloir d'un droit qui préexistait avant ce dépôt. Alors qu'en matière de brevet le droit n'existe qu'après avoir accompli la formalité de rédiger une demande de brevet, de la déposer, de payer des taxes — 268 euros, ça reste raisonnable —, mais il n'y a pas de droit qui préexiste avant l'accomplissement de cet acte administratif de dépôt.

Jacky Chartier : Juste avant que tu ne prennes la parole c'est simplement pour vous demander à tous, intervenants, de bien parler près du micro parce qu'on fait remarquer du coup en message que, dans certains cas, on ne vous entend pas suffisamment.

Owen Lagadec : Les messages marchent donc !

Jacky Chartier : Oui, tout à fait.

Owen Lagadec : Petit détail important pour ceux qui ne maîtriseraient pas particulièrement la différence entre l'APP et la brevetabilité, c'est une notion quand même fondamentale dans ce dont on va discuter ; quand on brevette on dit comment on a fait. Quand on dépose à l'APP, on a simplement créé une date d’antériorité, et ça c'est une différence fondamentale, parce que c'est bien la question de la brevetabilité des logiciels, sans rentrer dans trop de détails. Le logiciel ça peut se résumer à « j'ai choisi un chemin pour aller au même endroit que toi ». Quand on dépose à l'APP c'est comme écrire un bouquin : l'histoire de, peu importe, Le Rouge et le Noir de Stendhal, on pourrait écrire la même histoire d'une autre manière mais l'histoire reste la même. On ne dépose pas un brevet sur le principe de l'histoire. Alors que quand on fait un tire-bouchon on résout un problème technique qui paraît évident même en voyant l'objet. Et c'est là que dans les brevets il y a un vrai souci et, en tout cas, une difficulté à choisir entre un brevet dans lequel on va dévoiler la recette qu'on a utilisée et on considère donc que c'est la recette qui a de la valeur, alors que quand on dépose à l'APP c'est plutôt comme du copyright, on dépose le fait d'avoir codé le logiciel de cette manière-là. Mais quelqu'un pourrait le coder d'une autre manière, à ce moment-là l'APP n'intervient plus. C'est un petit détail juridique mais qui a son importance dans la partie stratégique future, c'est pour ça que c'est le contexte qui va aussi conditionner un peu le choix entre les deux.

Jacky Chartier : Du coup puisque tu as le micro, juste peut-être 30 secondes, tu es aussi confronté à des clients qui te demandent, quand tu fais du code pour eux, d'apporter cette preuve de dépôt à l'Agence de Protection des Programmes.

Owen Lagadec : On est un peu dans de la sémantique. Quand on parle d'un logiciel, au sens du grand public et même du nôtre, c'est finalement le produit final qui est désigné comme le logiciel, c'est-à-dire que c'est la boîte que j'ai achetée à la Fnac ou c'est, moi qui développe beaucoup d'applications pour les mobiles, c'est l'application iPhone qui est publiée sur l'App Store qui paraît être le logiciel final pour le client. Et moi, dans mon droit de prestataire, c'est bien sur cet objet final que je lui donne le droit d'exclusivité.
En revanche, je ne donne pas de droit sur les codes, c'est-à-dire que je me garde le copyright sur la manière dont je suis arrivé à ça, parce que quelqu’un d'autre pourrait lui faire strictement la même application avec un autre phénomène.
En revanche, effectivement pour lui, pour mon client, la question se pose souvent « Comment vous me garantissez que personne ne fasse la même chose ? » Je ne peux pas. Je ne peux pas parce que, c'est bien ça, mon logiciel est une somme de sous-logiciels eux-mêmes, qui sont une somme de sous-logiciels et ça c'est incompréhensible pour le grand public et pourtant c'est l'enjeu même de la brevetabilité. Si on ne comprend pas cet algorithme-là on voudrait poser un logiciel sur l’idée, du coup, et on revient au final, juste une idée, j'ai refait ça comme ça, or la méthode du logiciel c'est vraiment quels outils de programmation j'ai utilisés pour aboutir au résultat ; et c'est en ça, on y reviendra sans doute, mais démontrer qu'un logiciel peut-être breveté c'est qu'il faut résoudre cette question-là. Vous arrivez-là, mais votre méthode ? En quoi vous pouvez prouver qu'en gros, pour le grand public, elle est incompréhensible, voire pour l'homme de l'art ? Et c'est là qu'il y a l'innovation particulière à trouver.

Hervé Lardin : Je voudrais reprendre les deux aspects qui viennent d’être présentés.
La notion de la brevetabilité ou même, l'existence d'un brevet sur un logiciel, si c’était possible, ne préjuge en rien de sa validité juridique. Les logiciels, en tant que tels, sont clairement exclus du champ de la brevetabilité. Les logiciels sont des œuvres de l'esprit et, en tant que tels, bénéficient automatiquement d'un droit, qui est un droit qui existe pour toute œuvre de l’esprit, qui est le droit d'auteur. Le droit d'auteur est inclus automatiquement dès lors que vous créez un logiciel. Ce droit d'auteur vous pouvez être amené, effectivement, à devoir faire la preuve que vous en êtes en détenteur. Cette preuve peut-être apportée à l'aide de l'APP que je ne connaissais pas avant aujourd'hui, mais nous, dans l'univers dans lequel on vit, la publication du logiciel me semble déjà de nature à faire la preuve de la paternité.
Pour reprendre un peu ce qui vient juste d’être dit, l'histoire du gâteau au chocolat est très intéressante. C'est-à-dire que si vous faites une recette de gâteau au chocolat qui soit innovante et qui va intéresser des gens, cette recette-là c'est le code. Donc vous pouvez publier cette recette et la signer, mettre votre nom et c'est vous qui avez créé la recette. Mais vous pourriez par ailleurs, selon un autre process qui n'a rien à voir avec le droit d'auteur, dire « je dépose un brevet sur le fait de fabriquer un gâteau au chocolat ». De ce fait, tous les autres qui voudraient fabriquer des gâteaux au chocolat, si votre brevet a été accepté, seraient à ce moment-là obligés de venir vous voir pour discuter ou vous pourriez les attaquer parce qu'ils ont fait un gâteau au chocolat.
C'est un exemple assez clair et il se trouve qu'effectivement nous, en Europe, de ce côté-ci de l’Atlantique, nous avons un organisme qui s'appelle l'OEB, l'Office européen des brevets, qui enregistre les brevets. Son métier c'est d’enregistrer des brevets. Il gagne de l'argent en enregistrant des brevets. Et il y a un métier corollaire, ce sont tous les gens qui travaillent pour aider à enregistrer les brevets et ensuite les défendre. Donc cette activité propre d'enregistrement des brevets n'a pas de consistance juridique, n'est pas reconnue légalement. C'est-à-dire qu'il y des brevets déposés sur des choses aussi grotesques que le gâteau au chocolat. Il y a un brevet déposé, par exemple, sur la barre de progression d'un téléchargement, celle que vous voyez s'afficher, il y a un brevet là-dessus. Fort heureusement je dirais, le brevet n'est pas reconnu juridiquement. Personne ne va venir m'attaquer en tant que créateur de logiciel parce que j'ai mis une barre de progression de téléchargement, parce qu'effectivement le brevet n'a pas de validité juridique. Mais le brevet a été déposé, l'OEB a enregistré le brevet, la personne qui l'a déposé a payé pour que son brevet soit enregistré. Mais le brevet en tant que tel ne sert pas à protéger une œuvre de l'esprit. Une œuvre de l'esprit est naturellement protégée par le droit d'auteur qui vous garantit, de manière très forte, contre toute forme d'exploitation à votre insu de votre œuvre.

Pierre Breesé : Je pense qu'il faut clarifier les choses parce que c’était un peu du n'importe quoi !
Première chose, les idées sont de libre parcours. Donc l'idée de faire un gâteau au chocolat c'est de libre parcours, ni le droit d'auteur ni rien ne permettra d'interdire une idée d’être partagée, etc. Ce qui sera protégé c'est la façon de formaliser cette idée, elle peut se faire par l'écriture d'une recette et, à ce moment-là, on aura une protection sur la calligraphie de cette recette ou sur le texte de cette recette, mais pas sur le principe de la recette elle-même. Et si cette recette représente une solution à un problème technique elle pourra être brevetée. Le brevet ne portera jamais sur un idée, sur un résultat, mais sur les choix techniques qui permettent de réaliser cette idée et d'autres pourront trouver d'autres choix techniques pour la réaliser également. Première chose.
Deuxième chose, l'Office européen des brevets, comme l'INPI, comme l'Office américain des brevets ne sont pas des organes dans la nature, ils appliquent un droit, le même droit qui est appliqué par le tribunal. Ce qui est examiné par l'Office européen des brevets se fait en application du code de la propriété intellectuelle pour la France, de la Convention sur le brevet européen qui est également le texte qui sera appliqué par les tribunaux s'ils doivent se prononcer sur une présumée contrefaçon. Les offices procèdent à un examen de fond. Effectivement, vous pouvez déposer un fil à couper le beurre si vous voulez ; le brevet sera déposé, il ne sera pas accordé. S'il était accordé, les tiers peuvent faire opposition et il arrive que des brevets soient malgré tout délivrés. Ils seront annulés s'ils ne méritaient pas de l’être.
Dernière chose, ce micro que je tiens en main est protégé par le droit d'auteur comme est protégé le logiciel développé par les uns et les autres. Sa forme esthétique est protégée par le droit d'auteur et ses solutions techniques à un problème technique sont protégées par un brevet. C'est pareil pour n'importe quel objet : ce gobelet est protégé par le droit d'auteur pour son design, pour ses cannelures qui représentent un choix de la personne qui a dessiné ce gobelet, comme le logiciel est protégé par le droit d’auteur pour celui qui a écrit le code, et par ailleurs s'il apparaît que le renforcement de ce gobelet permettant de réduire la masse de plastique pour le mouler est une solution technique nouvelle et inventive, il sera aussi protégé par un brevet. Donc un même objet peut être protégé, présente différents attributs protégés par le droit d'auteur pour certains, par le brevet pour d'autres. C'est vrai pour le logiciel comme c'est vrai pour une brouette, un micro ou un gobelet.

Jacky Chartier : Donc, peut-être avant, j'allais dire de terminer sur cet aspect, non pas sur la stratégie puisque, à un moment donné on en viendra quand même à quelle stratégie nous conduit à quoi. Je dirais du coup, autour de cette assemblée, on a donc au moins trois personnes qui finalement se sont trouvées, enfin se trouvent confrontées régulièrement à, j'allais dire, des dépôts de solutions techniques à un problème technique pouvant impliquer un programme d'ordinateur, au sens de dépôt de demande de brevet. Donc au niveau de l'Inria il y en a à peu près en termes de brevets&nbsp?

Céline Serrano : Une centaine de familles de brevets.

Jacky Chartier : Il y a une centaine de familles. D'accord. Pierre le disait tout à l'heure, il y a eu aussi pas de mal de brevets qui ont été suivis dans le cadre de dépôts de son côté, et notamment aussi Owen, tout au début de la création de ta société, tu t'es orienté, en relation avec le LaBRI par exemple, vers du dépôt de brevets. Sans rentrer forcément dans les détails peut-être un ou deux exemples ou un ou deux éléments qui ont pu faire l'objet de quelque chose qui a nécessité ou justifié cette demande de dépôt de brevet. Sans être trop long, est-ce qu’il n'y a pas un ou deux exemples qui peuvent venir à l'esprit et qui nous serviront peut-être à illustrer les questions stratégiques à un moment donné ?

Céline Serrano : Au niveau Inria, on va breveter préférentiellement tout ce qui concerne des dispositifs, donc tout ce qui peut être, qui peut faire appel à du matériel en fait, à du hardware. On peut avoir ce genre d'activité. Tout ce qui est interface aussi avec des dispositifs matériels. Ce sont des choses dont on va effectivement regarder le caractère brevetable, c'est-à-dire nouveau, inventif, de ce genre de productions, à Inria. Par contre, je ne sais pas, un langage de programmation, effectivement toutes les déclarations d'invention qui arrivent dans ce genre de domaine, de sujet, tout ce qui est mathématiques appliquées, là ces déclarations d'invention sont refusées, on ne va pas du tout dans ce genre de brevet.
C'est très souvent aussi à la demande de certains partenaires industriels qui ont une grosse activité de brevets où là, effectivement, l'Inria peut suivre la stratégie de ces industriels et faire des co-dépôts avec ces industriels qui ont une grosse activité brevets.
L'Inria va déposer prioritairement ses brevets aussi pour les startups puisqu'on pense que ça peut être un réel plus pour les startups de l'Inria, donc pour certaines startups on a une grosse activité de dépôt de brevets qu'on leur concède en licence par la suite.

Pierre Breesé : Je peux peut-être donner l'exemple de deux brevets sur lesquels je suis intervenu au cours des semaines écoulées.
Le premier concerne une application qui se trouve d'ailleurs maintenant dans des applications Apple. C'est une application qui permet de réveiller lorsqu'on approche d'une station de métro ou d'une station de train. Ce sera bien utile, j'ai raté la station de la ligne 9 parce que j’étais en train de téléphoner. Donc c'est une application qui est destinée à déclencher un signal lorsqu'on arrive, on approche de la station de gare ou de la station de métro. En fait il y a un vrai problème technique parce que la couverture GPS n'est pas assurée en permanence dans le métro ou dans certaines conditions. Bien entendu, si on veut avoir une fiabilité absolue, il faut pouvoir résoudre un problème technique qui est celui d'assurer le suivi de la position, y compris en l'absence de couverture GPS. C'est une application purement logicielle, qui coûte 4 euros 99, que vous téléchargez sur App Store, qui n'est que du code, mais qui est bien une solution technique à un problème technique, qui passe sur l'analyse, la signature des vibrations, etc., captées par le petit capteur de l'Apple pour, comment dire, extrapoler la position, y compris en l'absence de couverture. Donc un exemple où on est clairement dans un problème technique pour lequel on a apporté une solution technique qui s'est avérée nouvelle et inventive, qui est, bien sûr, implémentée sous forme de code, mais qui, pour autant, est brevetable et protégée par le droit d'auteur sur le code qui a été ensuite distribué par l'App Store.
Une autre solution technique, purement logicielle, qu'on a brevetée pour un fabriquant de raquettes de tennis dont Nadal se sert et a remporté Roland Garros, cette société a déjà intégré des capteurs gyroscopiques pour avoir, en temps réel, une information sur la vitesse de la balle au moment de l'impact. Elle cherchait à raffiner l'information qu'elle fournit à des joueurs semi-professionnels, notamment en ce qui concerne l'effet de la balle. Donc, la question qui se posait, c'est comment est-ce qu'on peut donner une information sur la vitesse relative de la balle sur la raquette de tennis. Et là on a travaillé avec des mathématiciens pour analyser les vibrations et trouver une signature qui permet de fournir une information sur la vitesse de rotation relative de la balle, donc l'effet de la balle. Là aussi c'est purement logiciel, ce sont des mathématiques, mais c'est une solution technique qui répond à un problème technique. Et des exemples comme ça il y en a un grand nombre.
Donc de qu'on brevette ce n'est pas Word, Excel ou OpenOffice. Ce sont vraiment des solutions qui peuvent mettre en œuvre des outils mathématiques, des outils logiciels, mais toujours dans cette logique de fournir une solution technique à un problème technique.
En général quand je suis face à un informaticien qui se pose cette question, dire on ne va pas faire de dogme, on va faire quelque chose de très simple. On va regarder les bases de données brevets pour identifier des brevets qui se rapprochent de votre finalité. Par exemple des brevets sur la reconstruction des trajectoires en l'absence de couverture GPS. Et là on va réagir pour déterminer ce qu'on a fait de différent. Et l'inventeur en général dit : « Ça, ça ressemble, mais attention, si on prend les perturbations magnétiques ça ne va pas marcher parce que, etc. ». Donc là il va exprimer quels sont les choix différenciants qu'il a faits par rapport à cet existant, et on va pouvoir déterminer si ces différenciations sont de nature ergonomique, esthétique, auquel cas ça ne relève pas du brevet ; ou si ces différences sont de nature technique, apportent une solution technique à un problème posé par ce qui existait déjà, auquel cas, on est dans le domaine du potentiellement brevetable. Et après se posera une autre question « est-ce que ce qui est potentiellement brevetable mérite de l’être ? » et ça. c'est par rapport à la finalité visée.

Owen Lagadec : L'histoire de notre brevet. Pour la faire simple, le contexte c'est que je suis musicien passionné. Dans la musique, vous ne le savez peut-être pas, mais la musique que vous écoutez à la radio est d'abord produite avec ce qu'on appelle du multipiste, c'est-à-dire que tous les instruments sont enregistrés séparément et, en tant que musicien, j'étais un peu frustré de ne pas pouvoir écouter de la musique en pouvant couper, en étant capable de couper la guitare, le piano ou la voix. D'autre part il se trouve que je suis guitariste et quand je fais des concerts je ne fais jamais le même solo de guitare sur le même morceau. Je me suis dit « il y a là une perte de créativité », donc j'ai cherché une solution technique pour résoudre ça. On a donc conçu une technologie qui permet d'intégrer dans un seul format de fichier, c'est-à-dire un point quelque chose, tous les instruments dissociés. Et puis je me suis rapproché du LaBRI à Bordeaux pour réaliser ça et s'est donc posé le premier problème. Nous sommes deux entités différentes, avec des stratégies intellectuelles différentes et des stratégies à long terme différentes. Comment est-ce qu'on peut allier ou plutôt comment est-ce qu'on peut rassurer les deux entités ? La première réponse était « on va figer la propriété intellectuelle de chaque apport sous une certaine forme ». On n’était pas encore au brevet mais on peut se rapprocher là de ce qu'on fait avec l'Agence de la Protection des Programmes.
Et puis, deuxième élément, j’étais un Petit Poucet au pays basque et s'est posée la problématique du modèle économique. Or, le modèle que j'avais choisi, c’était celui du MP3. Le MP3 gagne sa vie avec du licensing, c'est-à-dire que chaque fois que vous achetez un lecteur MP3, le consortium qui possède l'exploitation de la licence touche quelque chose.
En choisissant ça je me retrouvais confronté à deux sous problèmes : l'internationalisation du droit, ce qui est valable en France n'est absolument plus valable dans le reste du monde, en tout cas pas en totalité. Et deuxièmement, pour atteindre le niveau du MP3 je devais devenir un standard, c'est-à-dire que mon format .iKlax devait devenir un standard. Il se trouve que le monde est ainsi fait, on pourrait en discuter, mais lorsque vous devez intégrer votre technologie comme une norme, alors vous êtes confronté à plein d’industriels, en l’occurrence c’était Microsoft, Pionner et autres, qui eux-mêmes ont construit leurs technologies en important leurs brevets à l'intérieur.
Si on débarque dans cette norme avec une technologie du Libre, c'est-à-dire le Libre face au privé dans un seul domaine, alors j'avais un problème de moyens pour pouvoir me défendre et ainsi de suite.
Toute cette problématique étant posée, on a décidé de poser un brevet qui a permis de figer dans le temps qui étaient les inventeurs et quelles étaient les entités qui possédaient ça, mais également d'avoir un élément juridique tangible à mettre, à confronter, à tous les industriels avec lesquels on négociait lorsqu’on a intégré notre technologie dans la norme. C'est donc ainsi qu'on a fait toute cette démarche. Donc, nous, notre brevet n'a pas été sur le format de fichier parce que ce n’était pas brevetable. La solution technique qu'on a résolue c'est que, lorsque l'on écoutait une piste, on faisait des règles de liaison avec les autres pistes. Par exemple lorsqu'on écoutait la guitare, il était alors impossible d'éteindre la basse. C’était ce qu'on appelait des règles d'inclusion. Ensuite on avait des règles d’exclusion : si vous éteignez la batterie alors la guitare s'éteint aussi parce que les deux ne peuvent pas marcher ensemble. Et c'est là-dessus qu'on a réussi à poser un brevet, non pas sur le lecteur final qui lit la technologie, ni sur le format de fichier parce qu'en tant que tel, on ne pouvait pas le déposer.
Je fais quand même un parallèle parce que vous avez parlé de MPEG et comme je connais un peu le truc, je vous donne un autre exemple qui montre à quel point toute la discussion qu'on va avoir est quand même confrontée à l'internationalisation du droit. Il se trouve que dans le fichier MP3, vous savez quand vous le mettez dans votre lecteur, vous avez le titre du morceau qui est en train d’être joué, vous avez sa durée. Et ça c'est intégré, pour ne pas faire trop compliqué, dans ce qu'on appelle les métadonnées d'un format de fichier. Les métadonnées, c'est comme votre carte d’identité, ça dit tout ce qu'il y en en vous, à peu près. Eh bien en Corée du Sud, par exemple, on peut breveter cette petite métadonnée. C'est-à-dire le fait d'avoir mis une balise qui s’appelle « titre » dans un format de fichier, c'est brevetable. Ça c'est impossible à faire en France parce qu'il n'y pas de démonstration d'innovation technique là-dedans.
Voilà aussi pourquoi la stratégie des brevets avait été choisie dans mon cas, c'est que, déjà qu'on était tout petits, on était en plus — là je mets un peu les pieds dans le plat mais je donne mon point de vue — contraints par le droit français, ce n'est même plus européen, c'est par le droit français là-dessus, pour lequel la brevetabilité des logiciels doit être constituée par une innovation vraiment large. Alors que le simple fait d’apporter un petit élément dans un logiciel peut parfois tout changer. Mais voilà, il y a certains domaines où ce n’était pas faisable, en tout cas avec tout ça, on a fait ce choix-là. Je ne sais pas s'il était bon, mais c’était le contexte.

Jacky Chartier : Dans les quelques éléments que tu viens de nous donner là, que tu viens justement d'aborder, à un moment donné tu as dit « on n’était pas dans le domaine du Libre ». On va peut-être aussi échanger un peu sur cette question, forcément, d'autant plus que le choix qu'on avait fait autour de la table était finalement de faire venir Hervé. Hervé qui a une société de services qui vit finalement de la mise en œuvre de solutions libres. Avant de rentrer dans les détails de la société en tant que telle, peut-être des activités ou de l'entité ProLibre, peut-être simplement quelques éléments sur ce qu'on appelle un logiciel libre, déjà entre, j'allais dire, les éternels dilemmes, le gratuit, le pas gratuit, le ceci, le cela, sans rentrer trop longtemps parce que je pense qu'on pourrait rester jusqu'à dix-huit heures sur la thématique. En quelques lignes — Pierre. éventuellement si tu veux compléter, tu pourras le faire aussi — peut-être quelques éléments sur ce qu'on appelle, finalement, cette notion de logiciel libre.

Hervé Lardin : En fait, ça découle de ce qu'on a dit précédemment. Un logiciel, s'il n’entre pas dans le champ d'application du brevet, a, par contre, des droits qui lui sont attachés qui sont des droits d'auteur. Et moi en tant qu'auteur d'un logiciel je peux décider de conclure un contrat avec un tiers qui peut être l'utilisateur, mais qui peut être un industriel, qui peut être une autre société, un tiers, à qui je vais concéder tout ou partie de ces droits. Donc il s’agit d'un contrat. La licence logiciel libre est un contrat que passe le détenteur des droits patrimoniaux, des droits d'auteur, avec un tiers qui va pouvoir en bénéficier et avoir les obligations qui sont liées à ce contrat.
Il existe énormément de contrats.
Il existe des contrats qu'on dit privatifs, c'est-à-dire que l'utilisateur, le destinataire du contrat, est privé d'un ensemble de droits sur le logiciel.
Il existe des contrats qu'on dit libres qui donnent à l’utilisateur un ensemble de droits sur le logiciel pour lequel on conclut ce contrat.
Pour qu'une licence soit libre, je vais le répéter mais tout le monde doit le connaître par cœur, il faut que cette licence accorde trois droits à l’utilisateur : le droit d’utiliser le logiciel, ce qui n'est pas le cas dans la plupart des licences des logiciels que vous utilisez, vous n'avez pas le droit de l’utiliser dans certaines conditions ; le doit de regarder comment est fait le logiciel et de le modifier ; et le troisième droit c'est le droit de distribuer ce logiciel. Si ces trois droits sont attachés au contrat que je conclus avec le tiers qui peut être, je le répète, un utilisateur ou un industriel, à ce moment-là, dans ce cas-là, cette licence est dite libre. Voilà.

Jacky Chartier : Du coup si je complète, juste une petite chose suite à ce qui a été dit en introduction, je fais du code, si je n'ai pas d'employeur, tel que le disait Pierre au départ, alors je suis bien titulaire de mon code et, entre guillemets, « je fais et je peux faire exactement ce que tu viens de nous expliquer ». Si, par contre, j'ai un employeur, les droits sur mon code, enfin une partie des droits, donc les droits patrimoniaux sont liés, enfin sont dédiés, sont dévolus à mon employeur et c'est finalement lui qui va choisir un peu de faire ce contrat en respectant plus ou moins. Mais voilà ! C'est peut-être la seule notion que je souhaitais rajouter, finalement c'est, en qualité de salarié, la dévolution que je dois avoir à certains moments à mon employeur. Tu voulais rajouter quelque chose ?

Pierre Breesé : Ce point est important, parce qu'on rencontre quand même assez souvent, que ce soit dans des entreprises ou des organismes de recherche publics, des développeurs qui font des choix personnels sur des droits qui ne leur appartiennent pas en réalité. Moi je pourrais être généreux et militer pour la liberté de cet amphi qui est magnifique, bien chauffé. Simplement je n'en suis pas le propriétaire et même si c’était très généreux de ma part, j’outrepasserais mes droits. Ce sont des situations qu'on rentre parfois aussi, malheureusement, chez des chercheurs.
Deuxième point que je voulais rajouter. Le développeur de logiciel est titulaire d'un droit d'auteur, comme ça a été dit, et c'est un droit d'interdire. Il peut choisir, s'il est titulaire de ce droit ou sinon c'est son employeur qui choisit, d'en donner accès, de renoncer à ce droit d'interdire, sous certaines formes, telles que celles qui nous ont été exposées, acceptation de renonciation à l'interdiction de l'utilisation, de la reproduction, de la distribution, etc. Par contre, beaucoup de ces licences dites libres, sont en réalité des licences avec une liberté conditionnelle, parce que ce droit généreux s'applique à une condition, qu'on désigne souvent par la viralité, qui est que celui qui bénéficie de ces droits applique à ses propres créations ces mêmes dispositions. Si j'utilise un logiciel libre, je suis en droit de le modifier, de l’utiliser, de le distribuer, à condition que tout ce que j'ai moi-même créé pour le compléter, pour l'améliorer, pour le mettre dans une application, soit régi par ces mêmes dispositions. Cette contrainte est plus ou moins forte suivant les soixante-dix types de licences libres qu'on a recensés.
Si je suis utilisateur de licence d'un logiciel libre et que je suis un cancre en développement, j'utilise Apache pour mon serveur, moi ça me va très bien, je suis prêt à m'engager à apporter les mêmes droits à toutes les modifications que je ferai parce que je suis absolument incapable d'en faire. Et quand je suis société de services, je suis un fervent supporter des licences libres, comme le garagiste sera un fervent supporter des outils libres. Alors que si je suis un producteur de logiciels à forte valeur ajoutée, je peux avoir une réflexion un peu différente : peut-être adhérer à cette logique parce qu'on va partager au sein d'une communauté notre excellence et aller plus vite et, dans d’autres cas, on va être plus réservés.
Donc il n'y a pas de vérité absolue. Chacun se construit sa réflexion par rapport au contexte dans lequel il intervient et je comprends très bien que lorsque je suis plutôt consommateur de logiciels, le logiciel libre me va bien, avec le droit de l'utiliser, de le modifier, etc. Dans d'autres cas, c'est moins adapté.

Hervé Lardin : Cette restriction concernant les licences me semble un petit peu exagérée. Je vais faire référence à un bouquin qui vint de sortir qui s’appelle Droit des logiciels de François Pellegrini et Sébastien Canevet, que je n'ai pas encore eu le temps de lire dans sa totalité, que j'ai parcouru en diagonale.
Il existe effectivement beaucoup de licences logicielles dans le domaine du logiciel libre, ce qui peut être, à première vue, un peu décontenançant. En fait, c'est la preuve de la diversité des modèles économiques qui sont attachés au développement de logiciels et c'est également la preuve de la diversité des emplois et des valorisations possibles du logiciel. Je ne peux pas considérer que l'utilisation d'une licence libre pour un logiciel est un abandon de droits. Au contraire, bien au contraire ! L'utilisation d'une licence libre pour un logiciel est la création d'un nouveau droit, est la création d'une nouvelle valeur, d'une valeur supplémentaire à la valeur initiale qui était attachée à ce logiciel, qui était une valeur relativement restrictive puisque c’était une valeur d'exploitation qui m’était accordée, à moi en tant qu’auteur, personne morale ou personne physique, en tant qu'auteur du logiciel. Par le contrat que je vais conclure avec des tiers, je vais créer une nouvelle valeur et c'est cette valeur-là qui a un intérêt. C'est bien là-dessus que je vais pouvoir baser mon modèle économique.
Considérer une licence libre comme l'abandon d'un droit ou d'un droit d'exploitation avec des retombées économiques me semble une erreur d'interprétation. Au contraire c'est la création d'un modèle de valeurs. Je voulais préciser ça.

Pierre Breesé : Ce n'est pas un abandon, au contraire, c'est une liberté très conditionnelle et à peu près 80 % des logiciels utilisés sous licence libre sont sous des licences contraignantes de type GNU GPL2 qui doivent représenter à peu près 40 % des logiciels sous licence libre, etc. Personne ici n'a parlé d'abandon de droits, au contraire, on parle de liberté conditionnelle et cette liberté conditionnelle est souvent plus contraignante que d'autres formes de licences.

Hervé Lardin : On ne va pas débattre trop longtemps, mais en fait, grosso modo, c'est pour ça que j'ai attrapé le bouquin. On peut classifier les licences en trois types de licences :

  • des licences diffusives qui ont tendance à vouloir être diffusées et à augmenter le nombre d'utilisateurs du logiciel qui a été fourni avec cette licence, qui je le rappelle est un contrat, un contrat que vous en tant qu'utilisateur vous acceptez de remplir ;
  • il y a des licences persistantes, c'est le type de licence auquel vous venez de faire allusion, c'est-à-dire quel que soit l'usage qui est fait du logiciel, la licence doit rester attachée à ce logiciel avec les droits et autorisations qui y sont attachés ;
  • il existe un troisième type de licence qui est très utilisé et qui est particulièrement intéressant dans votre cas et dans tous les cadres de valorisation industrielle qui sont sont les licences dites évanescentes, c'est-à-dire je fournis le logiciel avec une licence qui, dans le contrat que je conclus à travers cette licence, permet à l'utilisateur de transférer, de diffuser ce logiciel sous une autre licence. Donc ça c'est un troisième type de licence, on va peut-être en parler après.

Dans le cadre de la valorisation économique d'un projet logiciel, d'un logiciel, il y a donc trois types de licences qui peuvent être employés conjointement, qui peuvent être employés de manière associée ou dissociée. C'est-à-dire on peut faire un logiciel avec deux licences séparées pour avoir une valorisation économique maximale.

Jacky Chartier : Donc du coup, de ton expérience personnelle — je disais tout à l'heure que tu es une société de services utilisant des solutions libres, c'est forcément une société donc on espère qu'elle a une activité, qu'elle a du chiffre — finalement quel est le modèle économique dans le cadre de ta société par exemple ?

Hervé Lardin : En fait, il y a de nombreux modèles économiques qui sont liés au logiciel libre. Ces modèles sont souvent impliqués par le type de licence des logiciels utilisés. C'est le type de licence qui va un peu conditionner les modèles économiques applicables.
Dans mon cas, en fait, je suis une société de services, c'est-à-dire que j'apporte de la valeur ajoutée à un logiciel, mais on pourrait très bien imaginer qu'une société comme la mienne fasse du service autour d'un logiciel qui ne soit pas un logiciel libre. Je pourrais très bien installer un logiciel privatif dans les entreprises et apporter du service, de la formation, autour de ce logiciel.
Donc ce qui rend mon activité économique intéressante c'est que je vais avoir, en fait, un double rôle à travers ce logiciel. De part le fait que j'en suis utilisateur et contributeur je vais pouvoir avoir une action sur l'orientation du logiciel, orientation qui m'aurait échappée dans le cas du logiciel privatif, qui aurait été laissée à la seule discrétion du détenteur des droits qui m'aurait juste donné le droit de l'utiliser. Et je vais pouvoir, dans le même temps, assurer un service supplémentaire à mes clients en leur garantissant que de part l'emploi de ce logiciel les données qui seront générées par ce logiciel, les données qui appartiennent à l'entreprise, qui sont le cœur de l'entreprise, ces données seront, quel que soit l'avenir de ma société, du logiciel utilisé, seront de toute manière réemployables, réutilisables et valorisables.
Ça fait partie, par exemple, des deux éléments principaux, qui font que mon activité de société de services, quand elle se base sur un logiciel libre, me permet d'avoir cette double garantie : garantie de pérennité pour mon client et garantie de ma pérennité économique, puisque j'interviens en tant que tel, auprès des développeurs du logiciel.

Jacky Chartier : Donc du coup au niveau de ProLibre y a-t-il éventuellement un ou deux autres exemples de modèle économique de sociétés basées sur le libre ?

Hervé Lardin : Au sein de ProLibre oui. Nous avons par exemple une société qui est très active et qui est même une des premières sociétés en France pour ce qui est de l'équipement des écoles. C'est-à-dire, eux, ils ont une contrainte, je vais dire presque morale supplémentaire, c'est qu'il faut que le matériel pédagogique qui est mis à la disposition des élèves et à la disposition des instituteurs puisse bénéficier des ajouts de l'ensemble des acteurs. Si un instituteur décide de rajouter un module de formation autour de matériels existants, en le transformant ou en y ajoutant des informations, il est important que ce qu'il a créé ne soit pas en contravention avec la licence sous laquelle le matériel pédagogique lui a été mis à disposition. L'exemple fréquent : dans toutes les écoles primaires de France l'outil le plus employé pour la diffusion de la connaissance c'est la photocopieuse, en infraction totale avec la licence qui est attachée aux livres pédagogiques qui sont achetés par les écoles.

Pierre Breesé : Inaudible.

Hervé Lardin : Il y a des autorisations, il y a effectivement des adaptations, mais d'une manière générale je n'ai pas le droit de prendre un bouquin, de le photocopier et de le distribuer autour de moi. Il se trouve qu’avec une licence libre, non seulement j'ai ce droit, mais, en plus, j'ai des droits complémentaires qui me sont accordés, je peux le modifier, je peux l’enrichir et je peux le diffuser autour de moi.

Jacky Chartier : D'accord. En effet, c'est dans le cadre du, j'allais dire, du logiciel et en fonction de la licence libre donnée.

Hervé Lardin : J'ai juste oublié de citer la société. Il s'agit de la société Ryxeo, qui n'est pas loin d'ici, qui est à Pessac et la solution qu'ils installent dans les écoles s'appelle AbulÉdu3.
On a une autre société qui a une place assez importante en termes d'édition logicielle, qui est à cheval sur Midi-Pyrénées et Aquitaine, qui travaille dans l’univers du logiciel d'entreprise l'ERP et qui a par exemple dans le cadre de cette diffusion d'ERP au sein des entreprises — l'ERP [Enterprise Resource Planning] c'est un logiciel qui fait un peu tout dans l'entreprise — a été amenée à développer un logiciel de paye. Donc aujourd'hui on a un nouveau logiciel de paye sur un marché qui est un marché tenu par trois grands acteurs on va dire en France et ce logiciel de paye, qui est un logiciel très dynamique sur lequel je ne taris pas d'éloges, est sous licence libre.

Jacky Chartier : Du coup pour tenter de ressouder un peu l'ensemble des acteurs présents autour de la table, quand même une question : est-ce que globalement vous avez déjà, l'un et l'autre, induit à un moment donné, que ce soit une personne morale ou physique, à s’orienter vers une licence libre dans un logiciel ? Oui, je pense.

Céline Serrano : Pour l'Inria je ne sais pas si on induit les chercheurs à faire du logiciel libre. On essaye, dans la mesure du possible, de les sensibiliser. Peut-être que le comportement par défaut d'un chercheur va être de mettre tout de suite la solution qu'il a développée sur le Web, en Libre, pour que ses collègues chercheurs puissent se saisir du logiciel, donc le tester, expérimenter, faire des améliorations. Nous, ce qu'on cherche à faire à l'Inria, on croit beaucoup à l'open source, on croit que c'est effectivement créateur de valeurs que ça soit d'un point de vue sociétal ou économique. Par contre, c'est une démarche qui doit être accompagnée et il n'est pas forcément évident de passer d'une petite communauté d'utilisateurs proches du chercheur à une communauté de contributeurs qui va grandir encore, donc qui vont faire des contributions importantes, qui vont demander de nouvelles fonctionnalités, qui vont demander ensuite du support, un soutien informatique que les chercheurs ne pourront plus donner. C'est ce genre de projets qu'on va chercher à soutenir à l'Inria avec une réelle communauté de contributeurs qui va passer ensuite vers des contributeurs dans l'industrie, donc qui va intéresser les chercheurs qui sont plutôt dans le secteur privé et qui va permettre à Inria de faire sortir cette communauté open source du giron Inria. Et c'est là où on estimera qu'on aura gagné la partie, c'est lorsque la communauté open source autour d'un logiciel arrive à vivre soit par le biais d'un consortium qui n'est plus géré par Inria soit par la création d'une société dédiée qui va se charger de l'édition de ce logiciel.
Ça c'est un processus qui peu être très long, qui ne va pas être fait en quelques mois et c'est ce genre de comportement que l'Inria va chercher à favoriser et à soutenir.
Maintenant, ce ne sont pas tous les logiciels en open source qui ont ce genre de destinée. On en a plusieurs à l'Inria. On a plusieurs grosses plates-formes open source qui sont connues, je pense à Scilab4, Coq5. Il y a aussi la plateforme Consortium SOFA6.
C'est sûr que ça va être un outil pour attirer les industriels vers des travaux de recherche faits par Inria, mais, au bout d'un moment, il faut que ça sorte du monde académique et que ça passe dans le monde industriel, donc sous la forme de logiciels open source.

Pierre Breesé : J'interviens sur beaucoup de projets informatiques où aujourd'hui un développement informatique est généralement réalisé sous forme d’agrégation de multiples briques logicielles qui sont très souvent soumises à des licences libres, dont 80 %, quand même, sont des licences virales, c'est une étude de l'Inria. L’agrégation de ces briques pose un problème, c'est que souvent les licences ne sont pas compatibles entre elles et ça peut conduire à des difficultés, notamment pour des startups, lorsqu’elles veulent ensuite valoriser ce type de développement, elles peuvent arriver à des difficultés du fait de l'incompatibilité des licences applicables à certaines. Donc ça nécessite, disons un pilotage de projets informatiques rigoureux. Aujourd'hui, dans la recherche publique, l'ISEAM a mis en place des équipes d'ingénieurs qui accompagnent les développements de façon à avoir une traçabilité de l'origine des différentes briques, des licences applicables et de vérification de la compatibilité. Chez Digiteo, ça a été mis en place, à l'Inria aussi. Dans les grandes SSII il y a des outils qui permettent d'automatiser ce travail d'identification des briques logicielles, de vérification de la compatibilité des licences entre elles, pour aboutir à un produit qui, ensuite, puisse ensuite être valorisé dans des bonnes conditions.
Deuxième situation, c'est dans des développements industriels. J'ai plusieurs clients qui utilisent tantôt des briques libres et participent activement à des communautés et sur d'autres aspects, qui sont généralement le cœur de leur métier, ont d'autres choix de protection et de valorisation de leur développement. Je pense à un constructeur de matériel ferroviaire qui utilise des briques sous GNU GPL pour toute la couche transport des données. Pourquoi ? Parce que c'est une couche qui doit être aussi interopérable que possible avec tous les équipementiers, avec tous les partenaires, qui a un intérêt à mutualiser les ressources en matière de développement des différents partenaires, donc le modèle libre est parfaitement adapté à ces couches basses de transport des données.
Par contre, tout ce qui est cœur de métier sur les systèmes de sécurité, de freinage, de régulation, etc., là, au contraire, cette entreprise n'utilise jamais ne serait-ce qu'un bout de code libre pour éviter la viralité sur l'ensemble de ses développements, ce qui la mettrait en difficulté dans des réponses sur ses marchés qui sont en général des appels d'offres de sociétés de transport ferroviaire. Voilà ! dans cette société on utilise en toute cohérence du Libre pour certains développements et d'autres modèles pour d'autres.
Et enfin dernier point, ce qu'on a commencé aussi à développer dans la recherche publique ce sont des licences hybrides avec des développements libres pour la communauté scientifique et un redéveloppement à partir du savoir-faire et des brevets qui ont été déposés sous forme d'un code qui est ensuite complètement reconstruit par le partenaire industriel, pour répondre à toutes les contraintes de robustesse, etc.
Donc les deux modèles coexistent pour permettre à la fois à la communauté scientifique de faire vivre le logiciel et, en même temps, d'avoir une exploitation industrielle répondant à toutes les contraintes de robustesse, de standardisation, etc.

Owen Lagadec : Du coup je vous propose juste un point de vue là-dessus, ça n'est que le mien, 15 ans d'expérience là-dedans, mais il semble que le sujet de tout ce qu'on discute c'est aussi où on pose la valeur sur le droit. Dans le monde du logiciel on passe d'un monde où ce qui avait de la valeur c’était l'objet. Je suis désolé de reparler de ma boîte, mais on était dans un monde à distribution physique et puis, avec le développement de la dématérialisation et autre, ce qui a de la valeur maintenant c'est le savoir-faire. En tout cas une grosse partie de la valeur informatique c'est le savoir-faire. Or quand la valeur c'est le savoir-faire, c'est le savoir-faire d'installation d'un logiciel, de maintenance d'un logiciel, de conseil sur son utilisation. Du coup, c'est complètement le support du Libre qui est totalement pertinent, c'est-à-dire que là où vous devez me payer c'est pour le fait que je sois venu, exactement comme un conseil juridique n'écrit pas le droit français, en revanche il conseille, il guide sur son usage. Le monde du logiciel libre c'est cette idée-là de dire que ce n'est pas l'objet qu'on doit posséder tous, parce que le mieux c'est que si l'objet est partagé par un maximum, alors il sera de meilleure qualité, en tout cas c'est le vœu fait au départ.
Du coup il y a cette problématique de la sécurité qui se pose, mais je vous donne deux points de vue. C'est un, l’avantage du libre c'est que quand il y a une faille de sécurité il y a une grosse communauté qui intervient très vite. Or, quand on est dans le privé et qu'on n'a pas ouvert son logiciel, si quelqu'un trouve une faille, on est tout seul face à sa faille et ça peut durer très longtemps. C'est une réalité. Donc voilà ! Il y a des stratégies différentes à avoir.
Du coup, dans toute la discussion qu'on a, effectivement, finalement rien ne s'oppose. La question que chacun doit se poser avant de breveter ou autre c'est plutôt sur quoi je veux être payé. Il y a en gros trois cas.
On a parlé tout à l'heure du mot valorisation. Je pense en plus — il y a peut-être là autour beaucoup de techniciens — que la valorisation d'entreprise c'est très clair c'est quel prix une personne extérieure est prête à payer pour acheter l'intégralité de ce que je suis. C'est comme quand vous vendez votre voiture. D'accord ? Donc de ce point de vue-là, la protection d'un brevet c'est simplement de dire que non seulement on a pris, pas le brevet du logiciel, c'est qu'on a pris une avance dans le temps, mais qu'en plus pour atteindre, pour si un concurrent atteint le même niveau technique, il va être confronté à ce que j'ai fait. Et ça ça vaut le coup quand on dit « mais moi je monte une boîte pour que dans trois ans on me la rachète très, très cher ».
En revanche, si je dis que je veux monter un business, un business c'est plutôt basé sur le service, c’est-à-dire je vais vendre mon temps, je vais vendre mon savoir-faire et c'est le simple fait de vendre ma matière grise à moi qui va donner de la valeur à l'entreprise, alors le cas du Libre est extrêmement intéressant et ça ne vaut pas le coup de réinventer la poudre 100 fois parce qu'on ne va peut-être pas très bien le faire. En revanche, on va pouvoir venir rajouter une couche sur des objets très métier dont on a besoin, mais à d'autres modules que d'autres ont développés avec leur propre savoir-faire.
Et puis il y a le troisième modèle économique qui existe, et qui était le plus ancien mais qui tend à disparaître, c'est je veux vendre mon logiciel en intégralité comme un objet, comme je vends une voiture ou comme je vends une télé. Sauf que le problème là-dedans avec ce qu'on appelle maintenant le multi-canal, il faut l'évoquer, la multiplication des supports, le développement aussi des différents systèmes d’exploitation ; avant, rien que sur la mobilité, on en avait près de 117, on n'en n'a plus que deux dans le monde qui sont très grandement majoritaires, donc ce sont eux qui conditionnent aussi un peu ce qu'on a le droit de faire. Or, son logiciel, si on veut qu'il marche sur ordinateur, on veut qu'il marche sur mobile, on veut qu'il marche sur télé connectée, dans ce cas c'est vrai que les problématiques de normes, les problématiques de connaissance de personnes d'une communauté qui vont pouvoir m'aider à intégrer — par exemple moi je suis spécialiste mobile et quelqu'un est spécialiste TV-connectée — si on n'a pas discuté ensemble, avec un logiciel, avec un langage commun, puisque le logiciel n'est qu'un langage, on a un vrai souci.
Du coup, dans la question « faut-il breveter le logiciel ? », et logiciel libre ou pas logiciel libre, c'est surtout où est-ce que je vais mettre ma valeur. J'ai tendance à dire, mais ce n'est que mon point de vue, qu'on va finir par une société de savoir-faire, c'est ce qui arrive en Occident, on devient une société de services et non plus une société d'industrialisation du logiciel où je vais simplement être payé pour avoir conçu ou innové là-dessus. Mais ce n'est que mon point de vue, c'est un peu pour mettre des braises sur le feu. En tout cas, quand je vois en 15 ans l’évolution et moi qui ai fait un gros pari avec l'université de Bordeaux sur « je vais breveter un logiciel et essayer d'en tirer une valeur pour le simple fait qu'il existe », je me rends compte que le monde a évolué vers « c'est plutôt celui qui possède le savoir qui est payé ». Et quand Facebook vaut beaucoup d'argent, ce ne sont pas que les brevets qu'il a posés qui valent, mais tout le savoir-faire qu'il y a derrière pour aller animer une communauté. Je pense que dans la question c'est un élément important à prendre pour la recette des gâteaux au chocolat.

Hervé Lardin : Je vais piquer la place de Pierre pour poser une question à Owen parce qu’effectivement, moi je suis tout à fait d'accord puisque je suis dans ce modèle économique, la transposition de la valeur faciale de l’objet vers la plus-value apportée par celui qui maîtrise, ou qui connaît, ou qui a un savoir-faire. C'est évident qu'on est dans ce cas-là.
Toi dans ton cas, face à cette possibilité de valoriser une invention, puisque vous avez commencé par inventer quelque chose, est-ce qu'à l'époque vous vous êtes posé la question, plutôt que le modèle MPEG que vous avez considéré comme cible, de regarder du côté d'un modèle concurrent comme le modèle Ogg et, à ce moment-là, vous auriez pu diffuser votre logiciel sous une licence évanescente, type Berkeley7, et vous auriez eu des industriels qui auraient dit « y'a bon ! Je vais mettre ce logiciel dans mon appareil et je vais le vendre sous ma marque », parce que la licence Berkeley permet ça, et ça aurait permis de gagner beaucoup de temps sur la diffusion de la norme que vous vouliez voir reconnaître et utiliser par les tiers. Est-ce qu'à un moment, au début, vous vous êtes posé cette question et vous l'avez évacuée ?

Owen Lagadec : Oui, on s'est posé la question, mais on est dans un cas très concret. Je pense qu'il faut être ultra-pragmatique sur l’histoire des brevets. Il se trouve qu'au niveau international dans la musique, les industriels s'étaient tous mis d'accord pour utiliser la norme MPEG, donc ce n’était plus discutable. Pourquoi je dis ça ? C'est parce que dans le lecteur DVD que chacun a chez lui, c’était la norme MPEG qui était utilisée. Dans les devices, ce qu'on appelle le hardware, c'est la norme MPEG qui est diffusée et l'Ogg Vorbis, en l’occurrence, qui aurait pu être utilisé et qu'on utilise dans notre format pour la partie ordinateur, était impensable sur la partie mobile, parce qu'il se trouve que tous les fabricants d'objets mobiles s'étaient mis d'accord pour utiliser la licence MPEG. Et c'est là que stratégiquement je n'ai pas breveté, moi, pour l'idée, j'ai breveté parce que c’était, pour ces industriels, une vraie valeur à donner. Eux n'estiment que le brevet. J'aurais pu discuter et dire « vous avez tort », mais, à ce moment-là, ils n'auraient pas pris mon objet. Et quand il a fallu trancher, ce qu'on s'est dit c'est, sur le système ouvert on va utiliser l'Ogg Vorbis, en l’occurrence, méthode de compression interactive, très bien. Sauf qu'il se trouve que si on voulait aller sur iPhone, on ne pouvait que passer par du système ARM11 et donc c’était MPEG à l'époque.
Donc la réalité — je ne sais pas, il y peut-être en face des gens qui ont des idées de logiciel ou de startup — il se trouve que quand on va lever des fonds et qu'on doit convaincre des investisseurs — on pourrait le regretter mais c'est toujours pareil — aujourd'hui la grande majorité des investisseurs connaît ce modèle économique de l'objet. Ça tend à évoluer, mais comme ils le connaissaient, eh bien moi qui cherchais des ronds, pour parler un peu vulgairement, je leur ai parlé dans le langage qu'ils connaissaient et dans le modèle économique qu'ils pouvaient maîtriser. Ça c'est aussi une réalité !
« Faut-il breveter des logiciels ? » Je connais plusieurs développeurs qui ont comme stratégie de dire « puisqu'on ne va jamais atteindre le niveau des gros industriels, c'est impossible, alors je vais fabriquer des logiciels à diffusion virale pour me faire repérer par un très gros industriel ». Et c'est là que je continue dans mon pavé dans la mare, j'aimerais qu'on ait à nouveau cette discussion sur le Libre dans 30 ans, parce que je n'ai pas la conviction profonde que les stratégies du Libre n'aboutissent pas quand même, à la fin, à un usage privé, c'est-à-dire qu'on va quand même donner une valeur à ce qui était Libre, parce qu'il y a une communauté derrière, et qu'au final on arrive, même si on n'a pas breveté, que le Libre ne devienne pas vraiment libre. Je ne donne qu'un exemple là-dessus, très polémique, qui est la réalité, c'est Android. Android départ, c'est un projet open source. Au final c'est Google qui a la main dessus et qui, par une chaîne de valeur extrêmement intéressante qui est « je maîtrise le téléphone, l'OS et le supermarché de distribution des applications, ce qu'on appelle maintenant l'écosystème mobile » et bien par là ils viennent de donner une valeur à quelque chose qui était open source au départ. C'est pour ça que je me demande si, à la fin, on verra le résultat des courses, on ne va quand même pas donner une valeur à tout. Moi je pense que l'argent peut acheter beaucoup de choses. En tout cas c'est pour ça qu'on n'a pas choisi, nous, cette stratégie-là, c'est que ce sont les industriels qui nous imposaient une norme et on ne peut pas lutter contre Microsoft, en tout cas moi j'étais trop petit pour ça !

Pierre Breesé : Peut-être aussi par rapport à cette discussion et en vous écoutant, l’impression que quand on parle de logiciel on a finalement un panel assez large, une espèce de continuum entre des applications vues par l’utilisateur final — l'application qu'on utilise sur son iPhone, etc. — et, à l'autre extrémité, des couches basses très techniques. Plus on se rapproche de ces couches basses, plus on est, clairement, dans une logique de brevets que l’utilisateur ne voit jamais, il ne voit jamais le traitement qui est réalisé au moment de l'échantillonnage du signal. Et là on est bien dans le monde du brevet. Et plus on va vers le monde de l'utilisateur de l'application, plus on est dans une autre logique. Je pense que c'est peut-être ça ce qu'il faut garder à l'esprit. Si vous êtes dans des choses très conceptuelles, applicatives, le brevet n'est certainementpas bien approprié et trop souvent on entend « je vais breveter mon idée ». On est dans l’erreur. Si, au contraire, vous êtes sur des aspects très techniques là, très clairement, le Libre n'est pas adapté parce que ce n'est pas le bon outil, c'est plutôt vrai.
Je pense juste à un autre brevet que j'ai déposé il y a quelques temps pour des petits jeunes centraliens. Ça ne me serait même pas venu à l'idée de penser que ça puisse être exploité sous forme Libre. Ils on fait un truc assez malin, c'est de pouvoir gérer et auditer la consommation d'un immeuble, par exemple de cet immeuble, non pas en mettant des capteurs sur chacun des équipements électriques, mais en analysant les micro-perturbations qu'on peut mesurer sur l'alimentation principale du bâtiment. Donc ce sont des traitements informatiques extrêmement complexes pour, en fait, qualifier la signature de l'allumage ou de l'extinction d'un spot, d'un ordinateur, de la climatisation, pour fournir une cartographie du fonctionnement de l'immeuble par juste un capteur posé sur le compteur d'alimentation. C'est uniquement du logiciel et clairement on est dans le monde du brevet, de la solution technique au problème technique.
J'ai un autre client que j'ai rencontré qui avait conçu quelque chose de très innovant aussi sur la gestion d'un bar avec des QR codes posés sur la table, etc. Là, clairement, c'est de l’agrégation de briques techniques parfaitement banales. La malice venait de la vision marketing et là, le modèle, effectivement, ne relève pas du brevet.
Je pense que c'est probablement ce qui permet de justifier à la fois le développement du Libre dans certains secteurs et l'importance du brevet dans d'autres.

Jacky Chartier : Avant de laisser quelques questions à la salle, une dernière chose par rapport à ce qui vient d’être dit là, par rapport à ce que tu disais aussi tout à l'heure sur les acteurs avec lesquels tu devais agir, c'est-à-dire, finalement, les financeurs, et ça rejoindra un peu ce qui a été dit tout à l'heure par Céline. Finalement Inria aussi se positionne à certains moments au regard d'une stratégie. Dans certains cas en effet pour les startups, c’était ce qui a été dit tout à l'heure, il y a peut-être plus de dépôts de demandes de brevets, etc. On en pense ce qu'on en veut et on n'est pas sur cette table ronde-là pour être dans ces sujets-là, mais y compris les financeurs vont avoir besoin, à certains moments, qu'il puisse y avoir peut-être des actifs, des choses à valoriser, dans le cadre de la création de sociétés, et ce sont peut-être aussi des éléments de la stratégie de réflexion de Inria sur cet axe entre le Libre, entre… On en profitera en même temps pour répondre à une question sur la différence entre logiciel libre et open source. C'est une question, je pense que tu peux répondre aussi.

Céline Serrano : Je vais d'abord répondre sur la première question.
Je pense vraiment qu'il ne faut pas opposer open source à brevet. A l'Inria ce sont des choses, ce sont des outils qu'on va manipuler. Pour nous, ce sont des outils qu'on va manipuler différemment, qu'on va appliquer de façons différentes en fonction des acteurs qu'on a en face de nous, en fonction des acteurs socio-économiques qu'on a en face de nous. Effectivement, certains marchés, certains types d'industriels ne veulent voir que des brevets. Si on est capable de leur en fournir et s'ils veulent bien nous les acheter eh bien pourquoi pas ? Pour les startups effectivement c'est un plus. Je pense à une startup, LYaTiss, qui est en train d’essayer de se développer aux États-Unis. Ils ont en licence cinq brevets qui avaient été déposés par Inria et je pense réellement que pour les investisseurs américains c'est un réel plus. Donc ça faisait partie de la mission d'Inria d'aider cette startup à déposer ses brevets et après à lui vendre pour qu'elle puisse les utiliser aux États-Unis.
On a d'autres startups à l'Inria qui sont sur des modèles logiciel libre, je pense à Sysfera, je pense à InSimo, qui fait une plateforme de simulation médicale, qui est partie sur un modèle open source, le noyau est complètement open source. Il y a eu de plus en plus de contributeurs, de plus en plus d’industriels du domaine médical intéressés par cette plateforme, et maintenant la société, enfin la startup, vit avec des commandes où ils font des plugins qui là maintenant sont propriétaires en fait.
Donc on est vraiment capable de jouer sur plusieurs modèles et c'est ce que l'Inria cherche à faire sans opposer du tout le Libre et le brevet.

Je pense à trois exemples de chercheurs, enfin d'équipes de recherche, qui bossent dans le même domaine, le domaine des maillages.
Il y a en une qui fait du logiciel propriétaire, donc qui concède des licences de ce logiciel propriétaire à des industriels comme Dassault Systèmes par exemple. Donc là on vend une licence de logiciel.
Une autre équipe, toujours dans le domaine du maillage, qui là a choisi le Consortium open source ; il font des algos différents, ce sont des algos différents. C'est le même domaine, mais eux ont choisi le Consortium open source, donc ont développé toute une communauté autour de leur plateforme logicielle.
Et puis j'ai un autre chercheur, toujours dans le même domaine, qui lui a choisi la voie du brevet.
Je pense que ces trois démarches sont respectables. Moi je ne vais pas leur dire « non, surtout pas ! ». On verra après. Pour l'instant il n'y a pas de modèle, en tout cas dans ce domaine-là, qui s'est avéré meilleur que les autres. Les brevets n'ont pas encore été délivrés, on ne les a pas encore vendus, mais on s'emploie à le faire.
Je pense vraiment qu'il ne faut pas opposer les tenants du Libre et les tenants du brevet. Ça répond à des logiques complètement différentes et qui sont tout aussi respectables.
Il y avait une autre question, la différence entre Libre et open source. Je vais laisser Pierre répondre.

Pierre Breesé : Je pense que c'est le même. C'est le terme anglais ou français pour désigner la même chose.

Jacky Chartier : Volontairement ce titre de table ronde avait clairement joué la provocation déjà, parce qu'en effet, on l'a vu, on ne peut pas breveter le logiciel en tant que tel. On verra peut-être, à un moment donné, en effet on a déjà abordé la question des exceptions, Owen a fait référence à la Corée, c'est ça ? Et puis on peut aussi faire référence aux États-Unis qui était quand même un petit peu…

Pierre Breesé : Oui, mais les États-Unis, avec l'administration Obama, ont vraiment convergé vers la position européenne. Il y a deux décisions importantes de la Cour fédérale, l'affaire Bilski, qui a reformulé à sa manière la solution technique à un problème technique en parlant d'une invention qui doit être concrète et non pas abstraite, et implémentable par une machine. Autant il y a 15 ans, aux débuts des années 2000, au moment de la bulle Internet, effectivement certains pays comme les États-Unis avaient choisi de breveter à tour de bras. Entre temps ils ont fermé le robinet et il y a un alignement sur la position que j’évoquais : solution technique à un problème technique qui doit être nouvelle et inventive.

Jacky Chartier : Et en effet, par rapport à ça, il ne faut se fermer aucune porte quelle que que soit, finalement, la stratégie que l'on souhaite mettre en œuvre.
Il y a peut-être quelques questions. Tu veux ajouter quelque chose ?

Hervé Lardin : Oui. Je suis un peu embêté qu'on se soit enfermé dans ce débat brevet contre logiciel libre. Ça n'a rien à voir !
Le logiciel libre, la licence libre est une méthode pour diffuser un logiciel qui rentre dans le champ d'application de tous les moyens de diffuser un logiciel. Et, en dehors de ça, dans un champ qui n'a rien à voir, il existe la création de brevets qui une aberration dans le domaine logiciel, qui n'est d'ailleurs pas reconnue, et qui produit des effets complètement pervers.
Effectivement, dans une vision à court terme, certains investisseurs vont être impressionnés par un portefeuille de brevets d'une entreprise parce que ça sonne bien, « je dispose de dix brevets », mais dans une vision d’exploitation un brevet peut-être attaqué. Le brevet du logiciel qui permet de trouver la bouche de métro correspondant à ma ligne, il est forcément attaquable puisqu'il y a déjà plein de logiciels dans ce domaine-là. Il y a une société sur Bordeaux qui fait un logiciel qui permet de trouver les toilettes publiques les plus proches, par exemple, enfin il y en a énormément ! Donc le brevet en tant que tel est forcément attaquable.
Par contre, les droits moraux sur l’œuvre que j'ai créée, les droits patrimoniaux, ceux-là ne sont attaquables.
L'hérésie que constituent les brevets c'est ce à quoi a été confronté Owen. C'est-à-dire que dans le domaine technique, spécifique, où il veut faire connaître son invention, il ne peut pas le faire savoir, le faire connaître, parce que l'univers est blindé, est miné, par des brevets logiciels qui empêchent de marcher. Et cette hérésie du brevet logiciel arrive à une telle dimension qu'on a aujourd'hui des sociétés purement juridiques, qu'on appelle des patent trolls, qui sont des sociétés qui rachètent des fonds de brevets, qui ont un portefeuille de brevets, qui rachètent des brevets — souvent sur des sociétés qui sont en fin de vie — et qui ont un tel corpus d'avocats et de personnes juridiques qu'elles sont capables d'aller inquiéter des entreprises petites ou moyennes, même de taille moyenne, en leur disant « attendez, là votre logiciel contrevient à tel brevet ». Et quand vous recevez la lettre, parce qu'autour de nous ça arrive même en France, on reçoit la lettre, c'est évident que le logiciel en question, dont je suis détenteur des droits patrimoniaux, n'est pas en infraction avec ce brevet, mais quand on regarde la complexité de la procédure pour arriver à faire valoir que ce logiciel n'est pas en contradiction avec ce brevet ou qu'il préexistait à ce brevet, on se dit « bon, je vais payer, ça ira plus vite ». Et c'est ce que font la plupart des sociétés.
Donc aujourd'hui, tout le contentieux autour du brevet logiciel est animé à près de 70 % par ces sociétés qui sont des patent trolls.
En fait on est allé trop loin dans cette idée de brevets aux États-Unis, on a créé une nouvelle entité qui est une hérésie, qui est une nouvelle activité économique, qui consiste à exploiter des droits sur des brevets.
Le brevet est quelque chose qui est annexe à la création logicielle, c'est quelque chose qui est refusé en Europe, qui est accepté encore aux États-Unis, mais ils commencent à se dire « jusqu'au va t-on aller ? ».
Il existe une manière de valoriser les créations de logiciels. Cette manière est simple, c'est de créer une licence qui peut être soit libre, soit non-libre, soit open source, qui est encore une autre manière de diffuser le logiciel, choisir une licence qui soit adaptée au modèle économique visé. Et il existe des licences qui permettent de conclure des accords privilégiés avec des industriels. C'est tout à fait possible. Voilà !

Pierre Breesé : Un prédicateur mormon n'aurait pas fait mieux !

Jacky Chartier : Justement ça va rejoindre, à part si vous avez des questions, une interrogation quand même. Oui il y a une question.

Public : Bonjour. J'ai deux questions. Il y en a une, j'ai cru lire qu'il y avait le brevet unitaire qui allait être mis en place. Il y a des signaux d'alerte pour dire que ça allait peut-être arriver en Europe. Et la deuxième question c'est par rapport à l'innovation. Par exemple aujourd'hui, si je veux créer un nouveau téléphone portable, je vais être confronté à énormément de brevets. Est-ce que je peux encore faire ça ? Est-ce qu'il y a des choses qui vont être empêchées à cause des nombreux brevets qui peuvent exister à droite, à gauche.

Pierre Breesé : C'est vrai, sur la deuxième question, si vous voulez créer un téléphone, vous allez être confronté à 4500, 5000 brevets au moins. Mais si vous voulez créer une voiture ce sera pareil, si vous voulez créer un avion ce sera pire. Donc c'est vrai comme pour n'importe quel objet industriel.
Sur la première question, le brevet unitaire, ça fait partie des fantasmes des militants un peu dogmatiques. Brevet unitaire, c'est tout simplement une procédure qui intervient après la délivrance, donc ça ne change strictement rien à la procédure actuelle. Simplement, au lieu d'avoir trente-sept brevets nationaux issus du brevet européen, on n'aura plus qu'un effet, un brevet à effet unitaire qui produira des effets sur un territoire de vingt-cinq pays. Mais ça ne change strictement rien sur la procédure d'examen de délivrance qui est conduite comme elle l'est aujourd'hui, suivant les mêmes textes, la Convention sur le brevet européen, par le même office, l'Office Européen des Brevets. C’est juste la partie administrative de maintien en vigueur. Au lieu de payer des annuités en Allemagne pour la partie allemande, de traduire en tchèque pour la partie tchèque, en roumain pour la partie roumaine, on n'aura plus qu'un seul texte. Ça n'a rien à voir avec les critères de validité qui sont appliqués pendant la phase d'examen.

Public : Inaudible.

Pierre Breesé : Ça va réduire les coûts. Il ne faut pas non plus être complètement dupe. La taxe pour les vingt-cinq pays, elle ne sera pas l'équivalent de la taxe française à soixante-quinze euros. On estime que ce sera la taxe correspondant à 16 taxes actuelles. Simplement l'Inria, quand vous validez un brevet européen, vous le validez dans huit pays, au mieux, peut-être même moins. Donc réduction des coûts, oui, pour les sociétés qui ont l'habitude de valider dans trente-sept pays européens. Clairement, là ce sera une réduction des coûts. C'est l'exception. Pour la grande majorité des déposants qui se contentent de valider en France, en Allemagne, en Angleterre, en Italie, en Espagne, je ne suis pas certain que ça revienne moins cher.

Public : Inaudible.

Pierre Breesé : Huit pays ont déjà renoncé aux traductions par la signature du protocole de Londres, donc les principaux pays industrialisés, l'Allemagne, la France, l’Angleterre, etc., ont déjà renoncé aux traductions. Effectivement, pour ceux qui valident en Roumanie, en Tchéquie, etc., là ça va réduire les coûts.

Hervé Lardin : La question comportait deux volets. Un, le brevet en tant que soutien à l'innovation. Clairement le brevet est aujourd'hui un frein à l'innovation. Rares sont les sociétés qui réussissent à exploiter correctement une innovation pendant la durée de vie de leurs logiciels : un logiciel est remis en cause, grosso modo, tous les dix-huit mois à deux ans. Pour réussir à exploiter l'invention, la création de l’œuvre logicielle, il faut trouver une solution qui permette d'aller au-delà, sauf à avoir un objectif à court terme, encore fois, qui est de revendre sa société très rapidement. Et concernant cette histoire de brevet unitaire, c'est effectivement une troisième fois, on leur a dit non par la porte, on leur a dit non par la fenêtre et ils reviennent par la cheminée.
En 2005 l'Office européen des brevets a essayé de faire valider le brevet logiciel par le Parlement européen. Ils se sont fait opposer un refus net et définitif. Ils sont revenus par la suite avec une idée de brevet communautaire qu'ils ont abandonnée. Et là ils reviennent une troisième fois avec une idée de brevet unitaire parce que leur problème, c'est qu'ils ont un portefeuille de brevets qu'ils ont acceptés au sein de l'Office européen du brevet, ils ont accepté un grand nombre de brevets logiciels qui n'ont pas de valeur légale. Donc ils sont assis sur quelque chose qui est un vrai problème juridiquement. Ils ont une difficulté c'est de faire reconnaître le brevet logiciel pour pouvoir assurer la pérennité de leur activité de dépôt de brevets logiciels.

Pierre Breesé : Non, ça n'a vraiment strictement rien à voir puisque le brevet unifié concerne la procédure postérieure à la délivrance, donc ça n'a rien à voir !

Hervé Lardin : Justement sa reconnaissance dans le droit.

Jacky Chartier : Une autre question ? Sinon j'aurais une autre question qui nous est venue, je pense qu'elle sera une question polémique aussi.

Public : Vous avez abordé le sujet de la complexité des licences libres à priori de par leur nombre. Or, il me semble que si on compte d'un côté les licences libres, vous en avez dit soixante-dix à peu près, on trouverait dans le monde propriétaire plusieurs milliers de licences propriétaires. Côté libre, elles font une dizaine de pages maximum. Côté propriétaire, elles peuvent atteindre sans problème une centaine de pages. Donc finalement, dans l'absolu, si on veut développer un logiciel en utilisant des briques existantes, il me semble plus simple de s'orienter du côté des logiciels libres dans la mesure où les licences sont plus facilement compréhensibles.

Pierre Breesé : Pas exactement parce que la licence propriétaire porte en général sur l'ensemble du programme que vous utilisez et non pas sur chacune des briques constitutives du programme. C'est pour ça que ce n'est pas vraiment comparable. Quand je prends une licence Word je n'ai pas à me poser la question est-ce qu'ils implémentent une compression MPEG, plus un lecteur. J'achète le paquet. Si j'ai un agrégat de kernels, de briques régies l'une par le GNU GPL, l'autre par une Berkeley, l'autre par une BSL, etc., là c'est un travail extrêmement complexe.

Public : Là vous citez en exemple Word. Si je vais à la Fnac acheter Word familial, je n'ai pas le droit de l'utiliser dans le milieu professionnel parce que la licence me l'interdit, donc il me faudrait lire la licence pour savoir dans quel cas, dans quelle situation, pour faire quoi, j'ai le droit d’acheter cette licence Word. Donc c'est quand même compliqué.

Pierre Breesé : Eh bien vous achetez ce dont vous avez besoin ! Si vous l'achetez à fins professionnelles vous payez la licence professionnelle. Si vous utilisez à des fins familiales, vous l'utilisez….

Public : Mais pour le savoir il faut lire quatre licences différentes, quatre licences pour chaque famille de produits Word. Ça c'est un point.

Pierre Breesé : Oui mais vous savez quand j'achète des chaussettes c'est pareil, j'ai trente chaussettes en coton, en laine.

Public : Deuxième point. Vous avez cité aussi le fait d'une société ferroviaire qui utiliserait du logiciel libre pour faire de l'interopérabilité mais qui éviterait le logiciel libre dans les systèmes de freinage parce que ce serait, je ne sais plus exactement les termes que vous avez utilisés. Pourtant, un domaine extrêmement concurrentiel et technique qui arrive, ce sont les véhicules autonomes, qui se conduisent tout seul, et Mercedes a mis en ligne une vidéo qui fait la démonstration de son état de l'art. Dans cette vidéo, on voit que le système de contrôle est manifestement basé sur un système Linux/Ubuntu et utilise le logiciel de cartographie JOSM8 qui est aussi un logiciel libre. Donc Mercedes fait la preuve que l'on peut utiliser du logiciel libre sur des logiciels extrêmement pointus et dans un domaine, extrêmement concurrentiels, en devenir. Donc ce n'est pas un frein non plus.

Pierre Breesé : Chaque société effectivement se bâtit sa stratégie, sa philosophie. Je pense que ce qui est un petit peu quand même déplaisant dans cette discussion c'est qu'on a l'impression qu'on a une volonté de moraliser, d’imposer une vision du monde. Moi je m'en fous, je n'ai pas d'à priori sur telle ou telle vision du monde. Chacun construit sa stratégie pour développer son activité de recherche scientifique et de valorisation, de développement de sa startup, de développement d'une flotte de véhicules autonomes. Il n'y a pas à apporter de jugement moral sur une stratégie ou sur une autre. Il suffit qu'elle soit efficace pour atteindre l’objectif visé de pérennité, de développement pour une société industrielle, de qualité des échanges scientifiques pour un organisme de recherche public et de conjugaison de sa politique de valorisation de manière pertinente pour créer de l'emploi, pour créer une valorisation des résultats de la recherche vers le monde économique et les utilisateurs.

Owen Lagadec : Pour compléter un petit bémol quand même. J'entends ce que vous dites. On ne peut pas regarder l'échelle de la brevetabilité des logiciels sans regarder l'échelle du temps. C'est-à-dire que là on est en train d'essayer de figer ça comme si ça n’allait pas bouger. La réalité, quand même, c'est qu'effectivement dans le cadre de l'innovation, plus le temps va avancer, et il ne faut pas se leurrer, ce sont les télés que vous avez devant vous, c'est le projecteur qui est là qui rapportent beaucoup d'argent.
Quand on parle ensuite de startups qui veulent se développer, je vais vous le dire, moi c'est un devis concret que j'ai : si j'avais voulu breveter au niveau mondial mon brevet c’était 100 000 euros. C'est-à-dire que je me levais le lendemain matin, je faisais un chèque de 100 000. Là c’était le devis global. Traductions et tout le grand jeu. C'est quand même pour donner les masses !
Donc la problématique c'est qu'effectivement si on ne se pose pas la question dans le temps, si les gros industriels ne se posent pas la question d’arrêter une brevetabilité systématique sur tout ! Je reviens juste sur mon histoire de la balise titre dans le MP3 parce que ça tourne au stupide, il n'y a pas d'innovation là-dedans et pourtant c'est un brevet, donc ça donne lieu à des droits. Quand vous payez une licence à MP3, il y a 450 droits associés, c'est hallucinant ! La réalité c'est que dans 25 ans ce sont les très gros porteurs industriels qui vont maîtriser les choses. Et je n'ai pas de vision, je suis d'accord avec vous, il n'y a pas de vision morale : quand on prend un euro dans la poche de quelqu'un il ne faut pas débarquer en disant « je te le fais de manière morale », non ! Tu as pris un euro, tu as pris un euro ! Assume que tu l'as pris ! Par contre, la question c'est : est-ce que je vais encore pouvoir prendre un euro dans ta poche ou est-ce que tu vas être content de me le donner au moins ? Et la réalité c'est que la brevetabilité ça donne le pouvoir à ceux qui ont les moyens de se défendre. On l'a vu dans le cadre de la mobilité, ça a quand même ces contraintes-là, et il ne faudrait pas, ce n'est qu'une interrogation, que ça décourage les plus petits inventeurs parce qu'effectivement, après notre discussion-là, on a forcément l'impression que si on va dans le monde du Libre tout va être beau et ce n'est pas vrai. Ce n'est pas vrai ! Il y a plein de logiciels à utiliser dans le monde du Libre qui sont des catastrophes, qui sont des hérésies informatiques, mais les communautés les mettent en avant parce que c'est du Libre. C'est tout aussi moraliste que de dire de l'autre côté « tu as posé un brevet ». Oui ! Mais c'est peut-être parce que ce que j'ai fait, ça avait de la valeur. La réalité c'est « est-ce que ce brevet je vais pouvoir face aux très gros porteurs, lui donner une valeur ? »
Et là moi je suis comme vous, je suis interrogatif sur l'innovation. Ici on est en France, on est assez bons pour avoir des idées super, en attendant vous n'avez pas vu une seule ligne de très, très gros logiciels français que vous avez dans votre ordinateur quand vous l'achetez à la Fnac ! Ça m'interroge sur la valorisation de ce qu'on fait et on parle bien de brevet logiciel-là. Donc voilà ! Pour répondre à ça, regardons dans le temps comment ça va. Je suis d'accord pour dire qu'il y a une menace. Je ne dis pas encore que c'est une fin, mais il y a une menace dans l'utilisation du brevet comme une barrière, que ce soit un outil de protection.
Il y a toujours deux manières de voir le brevet : soit effectivement c'est un outil d'interdiction, c'est la réalité juridique, soit c'est un outil de prévention, c'est-à-dire « attention, j'ai fait une innovation », alors c'est une vue de l'esprit, mais n’empêche qu'on autorise son usage dans un cadre qu'on a défini. C'est tout aussi honorable que de dire « tu ne commences même pas à mettre un seul pied dans ce que j'ai fait ». La mobilité est très intéressante pour ça. On a deux modèles qui s’affrontent et aucun n'a gagné la partie pour l’instant. Il y en a un qui représente 7 % du cash américain, c'est Apple, 105 milliards de dollars générés avec l'iPhone, donc pourquoi contester la brevetabilité ? Ils ont bien fait ! On parle d'entreprises ! Quand on parle de brevets on parle d’entreprises, on ne parle pas d'une vision spirituelle de l'innovation. Quand on innove soit c’est parce qu'on avait un besoin de publication, c'est parce qu'on est dans la recherche, soit c'est parce qu'on a besoin d'argent et qu'on doit trouver un modèle économique pour travailler dans sa passion. Sinon, après, c'est ésotérique comme discussion.
Donc dans ce cadre-là, comment est-ce que je veux gagner de l'argent à la fin ? Soit j'ai le modèle fermé à la Apple, ils sont en train de faire la démonstration que ça marche, ce n'est pas contestable. Soit c'est le modèle à la Google, ils font croire que c'est ouvert, mais tout est blindé, tout est surveillé, tout est breveté, et c'est pour ça je reviens sur cette histoire de Libre pas Libre, moi je ne crois pas une seule seconde au Libre. Le Libre, la seule liberté qu'il y a et c'est la seule idée du savoir-faire du Libre, c'est dans votre tête. C'est dans la tête de l'inventeur que se trouve la seule chose non achetable, pour l'instant. Voilà ! C'est quand même important, parce que si on oppose les deux, on est en train de dire qu'il y a des entreprises vertueuses et d'autres pas vertueuses. Non ! Une entreprise ça fait de l'argent. La plus maligne, c'est selon son échéance. Celle qui veut en faire à court terme elle pose un brevet sur un logiciel ou non. Si elle a réussi tant mieux. La seule interrogation que ça pose c'est : les très gros industriels représentent-ils des menaces parce qu'eux ont les bras suffisants pour avoir de très bons cabinets comme Fidal [Fidal Innovation], pour avoir une protection logicielle extrêmement performante. Et ça c’était pour vous titiller !

Pierre Breesé : Oh ! Je sais ! C'est principalement des startups. Quand même, ça fait 30 ans maintenant que je fais ce métier, en grande partie pour des startups dont beaucoup ont bien réussi. Je dirais que la première protection et le meilleur gage de succès, c'est la vitesse de déploiement. Je crois que pour mettre tout le monde d'accord c'est ça. Après, pour cette vitesse de déploiement, la propriété industrielle peut servir pour conforter des investisseurs. Pourquoi ? Pourquoi est-ce que les investisseurs sont, comment dire, sensibles aux questions de brevets ? Non pas parce qu'ils sont un peu frappadingues et pensent que parce qu'il y a des brevets ils vont avoir le jackpot ! Parce qu'ils investissent par rapport à un projet, un business modèle, un plan, des perspectives de revenus qui sont annoncées et qui peuvent être sécurisées par la propriété industrielle qui permet de conforter le fait que l'entreprise va bien capter le flux financier qui est annoncé, si elle en a les moyens. C'est ça la logique de l'investisseur. En l'absence de brevet, effectivement, c'est la loi de la jungle.
Lacordaire, l'écrivain et juriste du siècle dernier, disait que dans les rapports entre le fort et le faible la liberté opprime et le droit protège. En l'absence de propriété industrielle, c'est la loi du plus fort qui l'emporte. Et le brevet permet au faible, à la startup, de trouver sa place, de construire son développement dans cet univers. En 30 ans de métier j'ai vu, quand même, un grand nombre d'entreprises, notamment dans le domaine high-tech, se développer par une stratégie. Il se trouve que mon métier m'amène à rencontrer plutôt des entreprises qui déposent des brevets, mais j'en ai aussi vu d'autres.

Jacky Chartier : Vous avez une question ?

Public : Oui. Moi j'ai une question à propos du droit d'auteur, enfin du logiciel en tant qu’œuvre de l'esprit, donc de dépôt à la Société des auteurs. Comment est-ce qu'on fait exactement ? Parce que si on ne veut pas breveter, il faut tout de même protéger le logiciel. Bon, vous avez l'Agence de protection des logiciels [Agence pour la protection des programmes], oui, mais vous dites que c'est automatiquement protégé. Pour moi, quand vous écrivez un livre, vous le déposez à la Société des auteurs.

Pierre Breesé : Non. Vous êtes protégé dès le moment où vous avez écrit ou même conçu votre œuvre. Par contre, vous êtes protégé pour ce que vous avez écrit. Ça n’empêchera pas quelqu'un d'autre de reprendre la même histoire et de la récrire à sa manière.

Public : Il y a des plagiats !

Pierre Breesé : Il y avait la fameuse affaire qui avait opposé Régine Deforges aux héritiers de Margaret Mitchell. Elle avait repris la même thématique et en fait, ce qui s'est passé, ce qui a donné lieu au contentieux judiciaire, c'est qu'elle avait tout à fait conscience qu'elle avait repris toute la trame de Autant en emporte le vent pour la retranscrire, dans le bordelais, au moment de la Seconde Guerre mondiale. Donc c’était un peu un clin d’œil, une coquetterie d'artiste qu'elle a exprimée avec sa patte, là-dessus rien à reprocher, et elle s'en était rendu compte. Elle a poussé son clin d’œil un peu plus loin en reprenant un paragraphe ou une page entière de Autant en emporte le vent en la replaçant dans son roman. Et quand c’était déjà sous presse, elle a dit « là j'ai fait une connerie, je n'aurais pas dû ». Et le débat judiciaire s'est porté non pas sur la reprise de la trame, ce qui n’était pas une atteinte au droit d'auteur, mais sur la reproduction de ce texte. Il se trouve que les héritiers de Margaret Mitchellont été jaloux du succès etc., ont trouvé là un pouvoir de nuisance.

Public : D'accord. Donc sur un logiciel, si vous retrouvez des morceaux de code d'autre chose, c'est là-dessus que vous pouvez attaquer ?

Pierre Breesé : Exactement. Il y a une décision très intéressante, qui a été rendue récemment. J’étais intervenu, là je défendais plutôt le Libre pour une société, WPL. WPL est une société qui a développé un me too d'un logiciel très utilisé dans le monde bancaire de la société SAS. Donc c'est un logiciel dont la licence vaut plus d'un million d'euros pour un établissement financier et ils ont une situation quasiment de monopole. Et WPL a dit « nous on va faire l'effort de redévelopper quelque chose qui présente les mêmes fonctionnalités, soit interopérable », et on a fait un travail très rigoureux. C'est-à-dire que WPL a veillé à ne jamais recruter quelqu'un qui un jour ait eu connaissance à des informations privilégiées de SAS. Jamais quelqu'un qui ait un jour travaillé chez SAS, ni même qui ait eu accès, à titre de maintenance, à des documents confidentiels, a veillé à ne jamais utiliser SAS, dont ils ont pris une licence, au-delà de ce qui était autorisé. Cette boîte est assez étonnante parce qu'ils ont trois développeurs autistes, qui ont une capacité de production incroyable.
Donc ils ont réalisé un logiciel qui fonctionne exactement comme SAS, dont la licence est de 150 000 euros par an. Bien sûr SAS est allée jusqu'à une action judiciaire, c'est monté jusqu'à la Cour de justice de l'Union européenne, qui a considéré qu'il n'y avait pas atteinte au droit d'auteur parce qu'il n'y avait pas de copie du code mais du everse engineering, c’est-à-dire une réécriture du code avec des investissements pleins et entiers, sans aucune information obtenue frauduleusement.
Donc ça montre la portée du droit d'auteur et les limites du droit d'auteur.
J'ai eu un autre cas où une SS2I, plutôt une Web Agency avait développé une application, vous savez ces gens Web Agency avec des développeurs à catogan, moyenne d’âge 19/20 ans, et avec une grosse pression parce que les clients sont un peu durs actuellement, donc un développeur, malin comme un singe, a trouvé sur une application similaire la fonctionnalité qu'il devait développer. C’était déjà le vendredi, il devait remettre son travail le soir. Il a pris le code source du site en question, il l'a réinjecté, ça s'est su et là il a été condamné pour atteinte au droit d'auteur.

Jacky Chartier : Je vais juste reposer une question qui nous a été formulée. Je parlais tout à l'heure de ma question un peu polémique — je n'ai pas les mots exacts, vu j'ai encore cassé le système qui m'envoie les questions — qui simplement était de dire « j'ai fait un logiciel, j'ai écrit quelque chose, est-ce qu'il faut quand même que je vérifie que je ne suis pas dans le champ d'un brevet ? » Je sais que forcément c'est polémique puisque, du coup, je peux potentiellement être, même si je suis auteur, dans le champ d'un brevet.

Pierre Breesé : Oui. Comme si je suis fabricant de bouteilles en plastique ou de microphones, je peux être sous un brevet. Si c'est un logiciel applicatif, etc. ! Ce souci est un souci de risque. C'est-à-dire que ce risque se produira quand il sera Facebook ou quand il sera Google. Tant qu'il sera développeur, bordelais, avec une application utilisée par 5000 internautes, je ne pense pas que quelqu'un dépense ne serait-ce que 2000 euros pour envisager… Bon ! Si vous fabriquez des téléphones portables et que vous voulez concurrencer Sony ou Samsung, là vous avez intérêt à faire une sérieuse recherche de liberté d’exploitation. Si vous faites une application vendue à 200 exemplaires à quatre euros, faites l'économie.

Céline Serrano : C'est ce que j'allais dire. Probablement ce développeur, pour l'instant, n'est pas solvable. De toutes façons il n'y a aucun intérêt à ce qu'un détenteur de brevet aille l'attaquer en justice. Il y aura attaque en justice seulement s'il y a beaucoup d’argent à la clef et solvabilité du contrefacteur.

Pierre Breesé : Les investisseurs, avant de mettre beaucoup d'argent, feront ce qu'on appelle des due diligence pour vérifier l'existence de ce risque. Tout ce qu'on souhaite à cet auditeur c'est de se trouver dans une situation d'avoir un grand succès qui le mette sous la menace d'un brevet !

Public : Juste peut-être un bémol. Dans la recherche, par exemple j'ai travaillé sur le GPU, ce sont les processeurs graphiques, là c'est une jungle de brevets à tel point que lorsqu'on va écrire un papier pour décrire des choses de recherche, on se pose la question de savoir est-ce qu'on peut même les publier, parce qu'on va avoir 10 ou 20 brevets qui sont derrière. Ces brevets sont pour moi une hérésie. C'est comment dessiner un cercle avec le processeur graphique. Ça veut dire aller appliquer l'équation du cercle dans un programme. Je ne comprends même pas comment ce brevet a pu être donné. On est confronté à…

Pierre Breesé : Mais ne vous inquiétez pas. À ce moment ce brevet est dépourvu d'activité inventive et il ne sera pas accordé.

Public : Ce brevet appartient à Nvidia.

Pierre Breesé : Qu'il appartienne à quelqu’un ! S'il est nul pour défaut d'activité inventive !

Public : Je pense qu'ils en ont une utilité s'ils l'ont déposé, qu'ils ont dépensé de l'argent pour le déposer. Donc j'imagine qu'il doit servir soit dans la guerre des brevets envers les autres. En tout cas nous on a des problèmes très concrets : on veut faire une recherche, on se tape les brevets directement.

Céline Serrano : Il y a deux réponses à cette question. Toujours la même réponse : un institut de recherche n'est pas solvable du point de vue de l'attaque en brevets, et vous avez le droit de faire de la recherche sur un brevet. Tant que vous ne vendez pas votre solution qui ferait appel, éventuellement, à un brevet valable de Nvidia, il n'y a aucun problème ; vous avez le droit de faire de la recherche, ce n'est absolument pas interdit. Il ne faut pas du tout fantasmer. Si jamais votre solution avait un avenir brillant, on irait éventuellement demander une licence à Nvidia s'il s'avère que le brevet est valable. Mais là c'est dans un horizon, je pense, assez éloigné. Donc il n'y a aucune crainte à avoir.

Public : Pour l'instant moi je passe outre parce que je sais que je suis en Europe et en France et qu'il n'y a pas de brevets logiciels.

Pierre Breesé : Vous passez outre parce que vous faites un acte de recherche et un brevet n'est pas opposable à la recherche, tout simplement, que ce soit en Europe ou ailleurs.

Public : On a parlé des patent trolls, il faut voir ce qui se passe actuellement aux États-Unis sur les attaques à droite et à gauche.

Pierre Breesé : Ils ne sont pas opposables à la recherche !

Public : Je demande à voir !

Céline Serrano : Les patent trolls vont s'intéresser à des gens qui sont capables de produire en masse. Si ! S'il n'y a pas d'argent à gagner, les patent trolls ne vont pas s'amuser à aller attaquer en justice des gens qui ne sont pas capables de produire en masse. Il faut une production en masse pour que l'attaque puisse rapporter beaucoup d'argent, sinon ça ne sert à rien. C'est du fantasme de penser que… Surtout un institut de recherche ne va pas se faire attaquer par un patent troll parce qu'on ne vend rien, surtout pas en masse. On fait des expérimentations, de la recherche. On peut accorder quelques licences, mais je pense que l'Inria n'a jamais accordé des licences sur des produits vendus par plusieurs millions d'unités. On n'en n'est pas là. On est très loin de ce genre d'acteurs.

Public : Je parlais plus du modèle. le modèle du patent troll aujourd'hui, ce n'est pas d'attaquer des gros acteurs, c'est d'aller attaquer les petits acteurs.

Céline Serrano : Mais non pas du tout. La startup n'est pas solvable. Elle n'est pas solvable. Ils n'ont aucun intérêt.

Public : Écoutez il y a une affaire Apple. Ce n'est pas le problème d’être solvable. C'est le problème d'aller attaquer. Ça coûte des frais et, en général, c'est accompagné d'une proposition de conciliation qui va coûter de l'ordre de 5000 à 10 000 dollars. En général les petites sociétés, les petites startups vont payer pour ne pas aller en justice. Je parle aux États-Unis. Regardez, c'est ce qui se passe actuellement.

Céline Serrano : En tout cas, on est en Europe. On est là encore un petit peu dans le cadre de la recherche,donc je vous rassure vous avez le droit de faire votre recherche tranquillement et sereinement, sans rien craindre de ce côté-là. Et l'Inria a un très bon service juridique.

Hervé Lardin : Oui en fait ça commence à exister. Ces fameuses patent trolls commencent à envoyer des lettres comminatoires en proposant immédiatement, dès le courrier, en disant « vous êtes en infraction avec le brevet machin, truc, bidule, mais nous vous proposons une solution de conciliation pour la somme de 30 000 euros ». C'est l'exemple qui existe en France, ça existe. Et les sociétés qui n'ont à rien à se reprocher et qui sont des sociétés qui n’utilisent que des licences libres, etc., se disent « soit on répond et ça va nous coûter bien plus que 30 000 euros, soit on signe le chèque de 30 000 euros et on passe à autre chose ». C'est en train de se passer aujourd'hui.
Concernant le fait qu'il existe un brevet sur le cercle dessiné par un ordinateur et que vous dites à monsieur « mais ce n'est pas grave, n'en tenez pas compte, on verra plus tard quand vous serez une grosse société, quand votre logiciel sera utilisé par des millions de personnes ». OK ! Mais ce jour-là le risque juridique existera toujours. Donc il fait bien, lui, aujourd'hui, en amont de son travail, d'éliminer ce risque juridique, comme les gens qui ont créé Ogg à la place de MPEG, ont dit « nous, on veut fabriquer des matériels, on veut fabriquer des lecteurs de MP3 — d'ailleurs on appelle ça comme ça , je suis désolé — mais on ne veut pas dépendre des brevets associés au MPEG. Donc on va travailler, on va participer à la création d'une norme qui sera ouverte, ce qui va nous permettre de fabriquer des lecteurs sans avoir à être attaqué pour tel ou tel brevet, etc. » Donc le brevet en tant que tel, pour tous les gens qui sont dans l'innovation, qui veulent créer, crée un terrain piégé, mais un terrain piégé à un tel point qu'il faut des moyens colossaux pour être capable de se défendre contre des sociétés qui sont détentrices de brevets.

Jacky Chartier : Il reste juste deux, trois minutes avant la fin. Je crois qu’il y avait deux questions.

Public : Bonjour. je voulais revenir sur l'histoire du brevet Nvidia. Céline a dit que si le brevet était valable, Inria pourrait acheter une licence Nvidia, mais si le brevet n'est clairement pas valable, est-ce que l'Inria ou un institut de recherche aura les moyens d'aller en justice pour casser ce brevet ?

Pierre Breesé : Non. Tout simplement on ne donne pas suite à une proposition et probablement il n'est pas livré. Maintenant, méfiez-vous toujours du gars qui dit « c'est le brevet pour payer par un simple clic ». En réalité, ce qui est protégé, ce n'est pas ce que les journalistes disent de, après avoir vu un dessin ou le titre du brevet ; c'est ce qui est déterminé par les revendications, une fois délivré. Donc ce genre de raccourci, laissez ça aux journalistes ou au bistrot.

Public : Vous avez donné un exemple avec la société WPL. Donc elle a gagné en mettant en avant l’interopérabilité et le fait que le reverse engineering est légal. Mais si le brevet logiciel obtient une reconnaissance juridique, est-ce que cette société aurait gagné ?

Pierre Breesé : Il n'y a pas de brevet logiciel. Arrêtez de parler de fantasmes. C'est très pénible. Un brevet peut porter sur une solution technique à un problème technique, qui soit nouvelle et inventive. S'ils avaient enfreint une invention valablement brevetée, effectivement ils seraient contrefacteurs et ce serait conduit certainement par une régularisation. En l’occurrence il n'y avait pas cette situation. Il y avait une protection unique par le droit d'auteur qui n'a pas été jugée opposable à une réécriture complète du code en question. C'est aussi simple que ça.

Public : Mais la société SAS, à mon avis, possède un énorme portefeuille de brevets.

Pierre Breesé : Arrêtez avec, voyez « à mon avis » ! Mais non ! Vérifiez les choses factuellement, vous constaterez que non. Pourquoi ? Parce que tout simplement ce sont des solutions applicatives qui ne posent pas de problématique technique mais simplement d'ergonomie et d'organisation des données. Voilà !

Jacky Chartier : Du coup pour conclure si vous aviez chacun, l'un ou l'une d'entre vous, en 30 secondes, une conviction ou quelque chose à donner autour de cette question ?

Pierre Breesé : Ce que je recommande à ceux qui sont chercheurs : ne vous laissez pas emballer par des visions un peu fantasmagoriques. Cohen, Proudhon, Walras étaient déjà des militants de ce genre-là. Prenez les choses de manière pragmatique et factuelle. Ce que je vous recommande c'est d'aller sur les bases de données brevets, elles sont gratuites — epoline, Google Patents, Patent Lens —, faites une recherche sur les sujets sur lesquels vous travaillez, regardez les brevets qui se rapprochent et puis posez-vous la question « en quoi je me différencie ? ». Et là, vous rentrez dans une logique qui est d’identifier ce qui vous distingue de l'existant. Peut-être que rien ne vous distingue et, à ce moment-là, ce n'est pas la peine de réinventer la roue ou le traçage du cercle par ordinateur. Soit vous avez des points de différenciation qui sont potentiellement nouveaux, inventifs, donc brevetables. Se pose ensuite une deuxième question : si vous déposez un brevet, est-ce que vous serez mieux armé pour engager un partenariat avec Dassault, avec un partenaire industriel pour lever des fonds, ou non ? Si la réponse est non, ne déposez pas de brevet. Si la réponse est oui, eh bien posez-vous la question de la stratégie de propriété industrielle à élaborer.

Owen Lagadec : Juste en conclusion, je vais vous dire ce que je pense profondément. Je suis d'accord avec le fait que la première puissance c'est la marque. On ne copie qu'un logiciel qui est particulièrement utile. Et encore une fois ce n'est pas le logiciel qu’on brevette, c'est la petite brique qu'il contient. Dans la voiture, c'est le cardan qu'on va breveter, ce n'est pas la voiture elle-même. Ça, ça a une importance, je parle plutôt en tant qu'entrepreneur. Je pense que l'une des bonnes vertus, si on a une innovation, c'est d'aller voir les gens qui maîtrisent la technologie pour être certain que ce qu'on fait va avoir une vraie valeur sur le marché. Encore une fois la mission finale d'un brevet c'est de donner une valeur à une entreprise. Le reste, OK, je veux bien croire les patent trolls et tout, mais ça ne tient pas la route sur le long terme.
Ceux qui font vraiment de l'argent c'est ceux qui ont vraiment monté un modèle économique autour d'un brevet ou autour d'un non-brevet, c'est-à-dire autour d'un secret industriel. A priori il y a plusieurs informaticiens ici, un exécutable OK, reverse engineering et tout, mais enfin, on ne se lève pas le matin en prenant un exe et en regardant le code source. Ça ne marche pas comme ça.
Déjà, pour déterminer qu'il y a une contrefaçon sur la rédaction d'un code source, il va falloir franchement bosser, il faut une sacrée équipe derrière pour y arriver. Donc le quotidien, à mon avis, de la brevetabilité d'un logiciel, c'est qu'est-ce que je veux faire avec mon innovation ? Est-elle une innovation ?, c'est plus ça la problématique, on est beaucoup maintenant à développer. Ensuite l'avantage du brevet, c'est si on va chercher du partenariat à mon avis à assez long terme. Si on n'y va pas, il y a plusieurs étapes à faire, et moi, c'est la seule chose que je transmettrais parce que c'est un truc qui m'énerve un peu, si on une bonne idée il faut la partager. Si on est obligé de la garder secrète et qu'on est tout seul, il faut se poser une question, c'est qu'on a un problème. C'est la seule chose que j'ai envie là de dire.

Hervé Lardin : Moi je vais utiliser un petit peu cette conclusion pour vous conseiller, si vous êtes intéressés par ces questions, ce bouquin Droit des logiciels, Pellegrini et Canevet. C'est le premier pavé dans ce domaine où on a une vision un peu générale du droit attaché aux logiciels.
Il existe un moyen de valoriser, de manière industrielle, une activité de création logicielle. Le droit des marques, on ne l'a pas évoqué, mais c'est effectivement une possibilité très importante qui permet d'avoir un avantage concurrentiel tout en concédant des licences d'exploitation, des contrats de licence qui, par leur côté libre, vont permettre d'avoir très vite une masse critique d'utilisateurs, qui va permettre de conquérir un marché, et dans le même temps, vont permettre également de convaincre des industriels de mettre en œuvre le logiciel dans leurs produits. C'est tout à fait faisable, ça n'a rien d’utopique, c'est un modèle économique qui fonctionne. On est beaucoup d'entreprises à travailler dans de ce domaine-là, on est de plus en plus nombreux et c'est effectivement quelque chose qu'il faut mettre en place, qu'il faut utiliser. Ce sont de très bons moyens et qui sont pérennes.

Céline Serrano : Le message de la Direction du transfert et del'innovation : il ne faut pas opposer brevet à logiciel open source. Pour nous ça va être un outil qui va nous permettre de faire du transfert. L'objectif c'est toujours de maximiser l'impact, donc parfois c'est par le brevet, parfois c'est par un logiciel en open source avec une création de communauté. Ce sont deux démarches qui sont tout à fait respectables et acceptées au sein d'un institut de recherche comme l'Inria.

Jacky Chartier : Finalement, je conclurais sur le fait que notre table numéro 5 des Tables rondes de la recherche aurait pu s’intituler et s'appeler « Quelle stratégie pour nos logiciels au regard de l'environnement dans lequel je dois les conduire, les implanter et finalement les exploiter ? ».
Je vous remercie.

[Applaudissements]

Revue de presse de l'April pour la semaine 28 de l'année 2020

mar, 07/14/2020 - 09:48

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[ouest-france.fr] La démocratie participative doit être à la hauteur des enjeux qu’elle veut défendre

✍ Axel Dauchez, le samedi 11 juillet 2020.

«La survie de notre modèle de société nécessite une réappropriation citoyenne urgente de l’action publique», selon Axel Dauchez, président et fondateur de Make.org,

[La Lettre du Cadre] Méthode FunWork: Les Chatons à la rescousse (¤)

✍ Franck Plasse, le vendredi 10 juillet 2020.

La crise sanitaire liée au Covid-19 a clairement modifié nos habitudes de travail, nous contraignant à nous organiser pour un travail à distance. Le collectif des hébergeurs alternatifs, transparents, ouverts, neutres et solidaires nous propose des services en ligne éthiques. En voici quelques exemples gratuits pour faciliter nos réunions en ligne.

[RTBF Info] Enseignement: des outils numériques sous licence libre pour une formation citoyenne, critique et responsable dès la rentrée

Le mardi 7 juillet 2020.

La période que nous venons de vivre a mis la société et les services publics à rude épreuve. Il a été une nouvelle fois évident, et c’est sans doute une des conclusions heureuses, que le rôle de l’État est essentiel au bon fonctionnement d’une société qui souhaite protéger ses membres. Pour assurer la continuité pédagogique en confinement, les enseignants ont majoritairement eu recours au numérique à marche forcée. L’ordinateur, la tablette et le smartphone, formidables outils de communication, ont permis de récréer du lien entre les professeurs, les élèves et leurs parents, en mettant fortement en évidence les besoins de chacun en formation et accompagnement.

[LeMagIT] OpenCore: le créateur de Redis laisse sa place à un modèle de gouvernance plus ouvert

✍ Gaétan Raoul, le lundi 6 juillet 2020.

Salvatore Sanfilippo, le créateur de Redis, quitte son poste de mainteneur du cœur open source. Redis Labs profite de ce départ pour établir une gouvernance «plus ouverte» pour régir les évolutions de la base de données.

[GQ France] Les vrais héros de la tech

✍ Loïc Hecht, le dimanche 5 juillet 2020.

On les appelle les «Makers», et pendant la crise du Covid-19, ils ont mis leur ingéniosité au service du personnel soignant en confectionnant des équipements précieux imprimés en 3D. Loin des gourous de la Silicon Valley qui s’offrent une bonne conscience à coups de millions de dollars, ces MacGyver du quotidien prouvent que l’intelligence collective peut faire des miracles. Maker… avec les doigts!

Réunion du groupe de travail Sensibilisation de l'April jeudi 30 juillet 2020 à 17 h 30 (accueil à 17 h 15) à distance

lun, 07/13/2020 - 17:31
Start: 30 Juillet 2020 - 17:15End: 30 Juillet 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas). Dans la période actuelle, les réunions ont lieu à distance.

La réunion de jeudi 16 juillet 2020 est annulée. La prochaine réunion du groupe de travail Sensibilisation aura lieu jeudi 30 juillet 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou (voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions déjà (ou presque) finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

La Fête des Possibles revient en 2020 ! Du 12 au 27 septembre en France et en Belgique

lun, 07/13/2020 - 14:48

Une nouvelle édition de la Fête des Possibles, organisée par le Collectif pour une Transition Citoyenne, aura lieu du 12 au 27 septembre 2020 partout en France et en Belgique. Des centaines d'événements permettront de faire connaître les initiatives locales et les solutions concrètes qui contribuent à construire un avenir plus durable et solidaire.

La Fête des Possibles aspire à faire prendre conscience à un maximum de citoyens et de citoyennes que des solutions existent pour vivre en meilleure santé, pour moins polluer, pour mieux vivre ensemble. C’est bien sûr une occasion de plus pour montrer que « c’est possible » d’utiliser au quotidien des logiciels respectueux de nos libertés.

Nous invitons toutes les personnes et structures ayant à cœur la promotion du logiciel libre à proposer un ou plusieurs rendez-vous dans le cadre de la Fête des Possibles. Un « kit de création de rendez-vous », disponible sur le site de la manifestation, donne toutes les informations utiles pour participer ainsi que des idées de formats d’événements prenant en compte les contraintes liées à la situation sanitaire actuelle.

Les rendez-vous pour 2020 peuvent d'ores et déjà être saisis sur le site de la Fête des Possibles. Pour nous permettre de valoriser la contribution des organisations du Libre à la manifestation, nous vous invitons à inscrire votre événement en lien avec le logiciel libre également sur l'Agenda du Libre, en ajoutant le mot-clé fete-des-possibles-2020.

Retrouvez tous les rendez-vous sur le site de la Fête des Possibles.

Pages