APRIL

S'abonner à flux APRIL
L'April a pour objectifs de promouvoir et défendre le logiciel libre et ses acteurs.
Mis à jour : il y a 51 min 41 sec

VLC : Le start-upper qui ne voulait pas être riche - Jean-Baptiste Kempf

mer, 08/19/2020 - 15:35


Titre : VLC : Le start-upper qui ne voulait pas être riche
Intervenants : Jean-Baptiste Kempf - Lucas Gautheron
Lieu : On s'autorise à penser - Le Media
Date : juillet 2020
Durée : 51 min
Écouter ou enregistrer le podcast
Site de présentation de l'épisode
Licence de la transcription : Verbatim
Illustration : Jean-Baptiste Kempf, FOSDEM 2019 - Licence Creative Commons Attribution 2.0 Belgium
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Emmanuel Macron l’a affirmé dès son élection : il veut faire de la France une startup nation. Il démontre régulièrement son soutien à la French Tech, censée représenter la quintessence de l’innovation et de l’entreprenariat. Mais derrière cette ambition, la réalité est bien différente. La France peine à se dégager de l’emprise des GAFAM, comme l’ont cruellement rappelé les déboires de Qwant, le moteur de recherche qui devait supplanter Google. Et l’échec patent de l’application StopCovid en est une énième illustration. Pourquoi la France peine-t-elle à innover et à recouvrir son indépendance numérique ? Comment résister face aux plateformes, sans pour autant exploiter une main d’œuvre uberisée, et en respectant la vie privée des utilisateurs ?

Transcription

Voix off : On s’autorise à penser, présenté par Lucas Gautheron, « VLC : le start-upper qui ne voulait pas être riche », avec Jean-Baptiste Kempf.

Lucas Gautheron : Vous connaissez certainement le logiciel VLC, l’incontournable lecteur multimédia made in France en forme de cône de chantier utilisé par des centaines de millions de personnes à travers le monde.
Ce qui vous ignorez peut-être, en revanche, c’est que derrière ce logiciel libre édité par une association à taille humaine et à but non lucratif, se cache un homme plutôt discret et, disons-le, un peu atypique dans son milieu. Devenu chevalier de l’Ordre national du Mérite à 35 ans, cet ingénieur de l’École centrale Paris, aujourd’hui à la tête du projet, l’a rejoint il y a 17 ans. Bien qu’il soit l’un des principaux responsables de ce succès français, il est bien loin d’être milliardaire. Quand on le lit ou qu’on l’écoute, on a le sentiment qu’il en a gros et qu’il a un peu envie de balancer sur la startup nation, la French Tech, les licornes, les BlaBlaCar et autres applications, et tout ce milieu qui pourtant devrait être le sien. Son nom : Jean-Baptiste Kempf. Avec lui nous évoquerons son parcours, bien sûr, mais aussi sa vision du monde des startups, du numérique, de l’innovation, les alternatives et stratégies à développer contre les plateformes et le rôle que la France devrait ou pourrait jouer dans cette lutte.
Bonjour Jean-Baptiste Kempf.

Jean-Baptiste Kempf : Bonjour.

Lucas Gautheron : J’aimerais quand même qu’on parle un peu de VLC1 avant d’aller dans le fond du sujet. Est-ce que tu peux nous dire plus précisément combien d’utilisateurs dans le monde se servent de ce logiciel ? Combien il y a eu de téléchargements à peu près ?

Jean-Baptiste Kempf : En fait, la bonne réponse c’est que je ne sais pas. Comme c’est un logiciel gratuit et libre, les gens ont le droit de le rediffuser et comme on ne fait pas ce qu’on appelle de la télémétrie, en vrai ça s’appelle de l’espionnage, je ne sais pas qui utilise VLC et comment on utilise VLC. Avec le nombre de téléchargements sur notre plateforme et le nombre de mises à jour, ça donne à peu près une idée du nombre de téléchargements et d’utilisations. On est à peut-être 500 millions d’utilisateurs actifs de VLC. Après, comment tu définis actifs c’est un peu compliqué, mais ça te donne à peu près la base installée de VLC qui doit être autour de 800, 900 millions de VLC installés dans le monde. C’est très difficile de savoir exactement parce que, pour faire ça, il faudrait se mettre à espionner les utilisateurs et on ne fait pas ça.

Lucas Gautheron : En gros, il y a des usages de particuliers ?

Jean-Baptiste Kempf : On a vraiment de tout. On a beaucoup de particuliers, des gens qui lisent des DVD, des Blu-ray, des gens qui regardent de l’illégal, pas mal de gens qui l’utilisent pour écouter de l’audio. Dans le monde professionnel de la télé, du broadcast, tout le monde utilise VLC, que ce soit Sony Pictures quand ils font le dernier Spider-Man ou la télé RTBF.

Lucas Gautheron : Si tu devais donner la raison fondamentale du succès de VLC, ce serait quoi ?

Jean-Baptiste Kempf : La raison fondamentale du succès de VLC c’est que personne n’a cherché à ce que ce soit un succès. C’est un peu un troll, mais en fait c’est juste que c’est un logiciel fait par des geeks pour des geeks, pour se faire plaisir, donc il n’y a pas eu de marketing, il n’y a pas de fonctionnalités qui ne servent à rien, le but c’est juste de faire plaisir à nos utilisateurs. C’est vraiment un produit qui répond au besoin utilisateur et c’est toujours ce qui nous a défini.

Lucas Gautheron : Justement, tu parles des intentions derrière ce logiciel, est-ce qu’on peut en faire un peu la genèse, comment il est né, parce que c’est une histoire assez particulière ?

Jean-Baptiste Kempf : Ce que je déteste c’est quand les gens me présentent comme créateur de VLC parce que d’abord, un, ce n’est pas vrai, et deuxièmement il n’y a pas de créateur. VLC, c’est un projet qui fait partie d’un autre projet qui s’appelait VideoLAN, qui est devenu un projet open source en 2001, qui, avant, était un logiciel pas open source et qui est la continuité d’un autre projet dont le but n’était absolument pas de faire un produit comme ça.
L’histoire originelle : en 1995, à l’École centrale Paris donc le campus à Châtenay-Malabry qui vient d’être détruit, tout est géré par les étudiants – la sono, les soirées, mais aussi la cafeteria, la coopérative, le bar, la télé, la radio et le réseau. En fait on est dans un campus un peu bizarre où ce sont les étudiants qui s’occupent du réseau informatique, pas comme dans d’autres écoles. Ils veulent un réseau plus rapide et ils n’ont pas l’argent pour le faire. Ils vont voir l’école et l’école dit : « Ah non, vous comprenez, ce n’est pas nous qui gérons le campus, etc. Allez demander à nos partenaires », qui est une façon de dire « allez, dégagez, il n’y a rien à voir ! ». On était en 1994, ce que les étudiants voulaient c’était jouer aux jeux vidéos en réseau parce que, à ce moment-là, leur réseau suffisait pour envoyer quelques mails et les premiers sites internet. Ils voulaient jouer en réseau. C’est ce qu’ils vont faire, on leur dit d’aller voir des partenaires, ils vont voir des partenaires, ils vont voir évidemment Bouygues qui leur dit : « Le futur de la télé c’est le satellite ». Bon ! Non, mais il y a 25 ans on pouvait se dire que c’était le futur et à ce moment-là tu achetais des box qui étaient des décodeurs MPEG2 qui coûtaient, je ne sais pas, 5000, 6000 francs et des antennes qui coûtaient 1500 francs. Sur le campus il y a 1500 étudiants donc le coût aurait été monstrueux. L’idée c’était juste d’en acheter une énorme et de diffuser par le réseau puisqu’en fait c’étaient des flux numériques. Évidemment, aujourd’hui ça semble évident. En 1995, on est 10 ans, 11 ans avant YouTube, être capable de faire du décodage vidéo plus gros qu’un timbre poste sur un ordinateur normal c’était quasiment de la science-fiction, mais ils voulaient vraiment leur réseau. Donc ils lancent le projet de 1995 à 1997, puis, en 1997, ils ont une démo, ça crashe mais ce n’est pas grave ils font la démo 30 secondes, ça crashe au bout de 40. Ils ont un super ordinateur où il y a 64 mégaoctets de RAM à l’époque, évidemment ça nous fait rigoler, mais on était avec des 486 DX/33 et 66, vraiment des antiquités. Le projet s’arrête là, le projet s’appelait Network 2000, ils ont un nouveau réseau ils sont contents.
Un an plus tard, il y a un groupe d’étudiants qui se dit que ça intéresserait peut-être d’autres personnes. Il y a le début de la mouvance du logiciel libre, donc ils disent on va faire un logiciel qui va fonctionner pour Centrale mais aussi hors de Centrale et qui sera open source.
En fait, VLC c’est une partie du projet VideoLAN qui est la suite du projet Network 2000 qui est la suite du réseau étudiant de Centrale Paris. À aucun moment quelqu’un ne s’est dit je vais disrupter, je vais faire un nouveau lecteur vidéo qui va tout casser. C’est une conséquence. Il n’y a pas de créateur. Il y a plein de gens qui ont créé, il y a plein de gens qui ont travaillé tout au long du projet.

Lucas Gautheron : Toi tu interviens à partir de 2003, c’est ça, c'est là que tu entres en jeu ?

Jean-Baptiste Kempf : Je rentre à Centrale, en 2003 je deviens vice-président du réseau et c’est comme ça que je rentre dans VideoLAN. Au début je ne m’occupe quasiment que de la diffusion vidéo sur la résidence. Je commence à faire des petits trucs à partir de 2005 sur le code et surtout, en fait, pendant mes stages en 2006, je commence à faire beaucoup plus de trucs sur VLC.

Lucas Gautheron : Donc c’est un peu le cadre associatif au sein de l’école qui t’as encouragé à t’impliquer et à apprendre ?

Jean-Baptiste Kempf : À l’époque à l’École centrale Paris, il y avait une énorme vie associative et un peu moins de focus, en fait, sur les cours, en tout cas pour une certaine part. À peu près 20 % des élèves faisaient beaucoup d’associatif et c’est génial parce que ça t’apprend beaucoup plus de choses dont tu vas avoir besoin plus tard dans ta vie qu’un énième cours de physique quantique ou de mécanique des fluides.

Lucas Gautheron : C’est un projet étudiant qui a évolué. Aujourd’hui qui collabore au projet ? Est-ce qu’il y a des salariés à temps plein dessus ? Est-ce qu’il y a des contributeurs externes qui alimentent le code source ? Ça se passe comment ?

Jean-Baptiste Kempf : Au début c’était un projet étudiant et jusqu’à 2001 ce n’est pas open source, donc ce sont que des étudiants de Centrale qui peuvent s’y mettre.
En février 2001, quand il passe en open source, à ce moment-là il y a des gens qui commencent à contribuer, notamment un Hollandais et un Français qui habitait à Londres, qui commencent à aider. Chaque année, en fait, c’est un groupe d’étudiants qui vient et qui repart. Et ça marche comme ça jusqu’en 2005/2006 et là, le logiciel devient un peu trop gros et surtout devient un peu trop compliqué pour des étudiants donc le modèle ne marche plus. On se retrouve en janvier 2007 où on n’est plus que deux et demi, Rémi, moi et Christophe, donc là on se rend compte qu’il faut relancer différemment. En fait, c’est ça qui va amener à la création de l’association en 2008 et moi, pendant un an et demi, je vais trouver les nouveaux étudiants ou parler aux anciens étudiants qui sont maintenant professionnels pour dire « venez travailler, contribuer ».
C’est une période qui va finalement aller jusqu’à 2013/2014 où la plupart du développement est faite par des bénévoles sur leur temps libre.
À partir de 2012, je monte une entreprise à côté, qui est à côté de l’association et qui commence à embaucher des gens de l’association pour pérenniser un peu le logiciel, en particulier parce que l’open source, notamment le logiciel libre, est un peu moins sexy qu’il ne l’était parce qu’il s’est énormément professionnalisé. Les gens disent « pourquoi j’irais le faire gratuitement quand je peux le faire professionnellement » et surtout il y a les smartphones qui font que c’est beaucoup plus difficile qu’avant de développer pour les smartphones.
L’association existe toujours, je suis toujours le président depuis 2008 ; elle n’emploie personne, elle a très peu de moyens et les gens qui contribuent sont soit des gens externes soit bénévoles soit payés par les entreprises soit payés par mon entreprise.

Lucas Gautheron : Qui est la société Vidéolabs2, c’est ça ?

Jean-Baptiste Kempf : C’est la société Vidéolabs.

Lucas Gautheron : Elle fait quoi cette société ?

Jean-Baptiste Kempf : Elle fait du service professionnel, des fonctionnalités en plus pour VLC. En fait, maintenant on fait 70 % du travail de VLC. C’est une société SAS [Société par actions simplifiée] mais il n’y a pas d’investisseurs. On ressemble plus à une SCOP [Société coopérative et participative] qu’à une SAS. En 2012/2013, je voulais voir comment on pouvait pérenniser le modèle. J’avais de plus en plus d’étudiants qui me disaient « je veux faire le Uber de la farine ou le Airbnb des pierres tombales ou le lacet connecté ou le prochain Flappy Bird ». Aller bosser dans l’open source ce n’était pas le truc sexy, alors que pour moi les mecs de l’open source c’étaient normalement les gros cadors. Tout le monde voulait faire des startups, donc j’ai dit on va faire une startup autour de VLC. Ça permet aussi de récupérer les subventions parce que aujourd’hui il y a beaucoup de subventions – CIR [Crédit Impôt Recherche], JEI [Jeune entreprise innovante], FUI [Fonds unique interministériel], PIA [Paris Innovation Amorçage] et d’autres choses comme ça – qui ne sont accessibles qu’à des entreprises ou des laboratoires de recherche universitaire, mais quand tu es une association, tu ne peux rien avoir.

Lucas Gautheron : Vous ne faites pas de pub, pourtant ça représente une fortune ne serait-ce que la valeur des données que vous pourriez emmagasiner sur ce que consultent les gens, etc. C’est une mine d’or ça, non ?

Jean-Baptiste Kempf : Non. J’aurais pu me faire énormément d’argent si telle était la question, aucun problème ! Mais il est hors de question que je gagne de l’argent de façon pas éthique. Donc espionner les utilisateurs, mettre de la pub c’est-à-dire finalement espionner les utilisateurs ou tout ce genre de merdier, installer des toolbars pourris ou, grosso modo, des trucs d’antivirus qui sont finalement plus des virus qu’autre chose, c’est hors de question. Attention, je ne suis pas contre faire de l’argent et gagner de l’argent. Je suis contre le faire mal et pour le moment on n’a jamais trouvé une façon bien de faire de l’argent autour de VLC, donc on préfère ne pas en faire. Oui, c’est sûr, ça pourrait être beaucoup plus gros vu le nombre d’utilisateurs, mais on préfère le faire bien.

Lucas Gautheron : Il y a par exemple des gens qui vont ont approché, je crois que c’est Google qui avait proposé un contrat ?

Jean-Baptiste Kempf : On a eu Google, Google ce n’était pas le pire, on en a eu plein d’autres qui étaient bien pires. D’abord, Google, ils avaient une barre de recherche que tu mettais dans tes navigateurs, que tu rajoutais, qui te mettait tout pour que tu ailles tout faire sur Google. Après c’était pousser Chrome en même temps que l’installeur de VLC. Eux, à la limite, c’était encore à peu près propre. Après on a eu une quantité de mecs, et on en a toujours, qui viennent proposer des dizaines de millions pour faire de la merde.

Lucas Gautheron : Par contre, tu parlais des jeunes qui rêvent, tu disais de l'Airbnb des pierres tombales, c’est ça ? De choses comme ça. D’ailleurs, est-ce que c’est différent de l’époque où toi tu étais à Centrale ? C’est vraiment une généralité chez les jeunes aujourd’hui qui sortent des grandes écoles ? Si c’est le cas à quoi tu l’attribues ?

Jean-Baptiste Kempf : En fait, il ne faut pas croire que c’est pire qu’avant. Avant, quand ils sortaient de Centrale, Polytechnique, HEC, enfin bref !, toutes celles que tu veux, les mecs partaient faire du conseil, du conseil en stratégie ou conseil en organisation ou ils deviennaient un micro-pion dans des boîtes du CAC 40, que ce soit l’Oréal ou des trucs bancaires. Maintenant ils disent « en fait, je préférerais monter une petite entreprise et avoir un vrai impact ». Je trouve quand même que c’est plutôt bien. Le changement de mentalité est bien parce que les gens veulent créer un truc. Ça c’est bien. Après, de là à aller jusqu’à l’open source, non ! Ça n’arrive pas. Il y a beaucoup de choses à critiquer sur les startups, mais je trouve que maintenant le fait que tu aies envie d’aller monter une boîte plutôt que d’aller bosser en marketing chez l’Oréal c’est plutôt une bonne chose.

Lucas Gautheron : Quand Macron dit qu’il faut des jeunes Français qui aient envie de devenir milliardaires, il disait ça dans Les Echos en 2015, ça t’inspire quoi ?

Jean-Baptiste Kempf : C’est très compliqué parce que tout ce qui est financement, en fait, est très compliqué. Quand tu vas dans la Silicon Valley, tu as énormément de Français, tu as beaucoup d’Indiens et de Chinois. Tu te rends compte qu’il y a beaucoup de Français qui sont très bons à créer des choses, mais c’est vrai qu’il y a un problème de financement. Je ne pense pas que le but soit d’être milliardaire, par contre ce qui serait bien, ce qui serait utile, c’est que les gens qui ont des milliards ne soient pas juste des Américains. Je pense, évidemment, que ce n’est pas ce que lui pense. Lui pense la partie vraiment purement argent. Moi je pense juste qu’il est important d’avoir des leaders français, mais que tu peux les faire bien. En fait, l’argent doit être un moyen de faire des trucs bien et ça ne doit jamais être un but. C’est la grosse différence, moi je pense que ce n’est pas un but et lui pense que c’est un but.
Ce serait bien parce que ça permet de réinjecter dans les écosystèmes et notamment pour faire de la vraie tech, tout ce qu’on appelle maintenant un peu des deep techs a contrario de la French Tech. Il y a plein de technologies et c’est important, notamment pour le modèle social français, d’avoir encore des choses que tu puisses exporter. Sinon, en fait, tu passes ton temps à avoir ta balance commerciale négative et, finalement, la France s’appauvrit par rapport au reste du monde.
Ce qui est bien dans l'idée de la startup nation c’est de dire qu’il faut soutenir la création. Soutenir la création oui, mais pas n’importe comment et c’est ça la grosse différence, c’est que pour lui c’est quel que soit le prix : ils font des deals avec Google, avec Uber, avec Microsoft et ce n’est pas du pérenne. C’est vraiment juste on crée, on a plein de trucs, on peut avoir des capitaux et ça marche quelques années. Le problème, en fait, c’est que tout ça est sous perfusion permanente. Il faut énormément créer de startups pour que ça fonctionne.
Ça c’est sur la partie vraiment startup nation. Aucun d’entre eux n’a jamais monté de boîte ; que ce soit le ministre du Travail ou Macron, jamais ils n’ont rempli une fiche de paye. Ils n’ont aucune idée de comment ça fonctionne. Ils ont juste la vision « on va avoir plein de boîtes, ça va être bien, on va avoir des capitaux », mais quand tu fais du volume tu ne fais pas de la qualité.
Le problème des startups en général c’est un problème de financement. Monter des petites boîtes et les faire monter jusqu’à une ou à deux personnes, cinq personnes, dix personnes, ce n’est pas dur. La difficulté c’est comment tu passes de 10 à 100 ou à 200, avec des business modèles qui soient pérennes et qui soient éthiques. Et ça, en France on a complètement perdu ça. On a soit les gros groupes soit des tout petits trucs. Les Allemands ont été très forts, ils ont réussi, par exemple, à garder une capacité industrielle d’entreprises de 200, 500 personnes, et, en fait, c’est ça qui est important.
Pour ça il y a un gros problème, c’est qu’il faut des financements avec des levées de fonds importantes, qui sont ce qu’on appelle série B, série C. En France on n’a que de l’esbroufe, on a plein de petites startups dont la plupart c’est n’importe quoi. Mais, comme elles sont beaucoup sponsorisées au début, c’est facile de tenir un an ou deux ans parce que tu récupères ton chômage. Il faut quand même savoir que le premier investisseur en France s’appelle Pôle emploi. C’est vrai, c’est-à-dire que pendant 15 mois tu peux être payé avec ton ancien salaire pour créer une boîte. C’est absolument génial, c’est une très bonne idée. Aux États-Unis, il y a plein de boîtes qui auraient été tuées tout de suite parce qu’au bout de trois mois, six mois, tu te rends compte que ce n’est pas un truc qui marche. Là, en fait, on a plein de petites boîtes qui sont sur un marché qui n’existe pas et qui sont subventionnées, mais qui ne servent à rien, évidemment elles n’ont pas de but. On n’a pas le marché qui fait la sanction derrière ou d’investisseurs qui disent « ça c’est n’importe quoi, arrête ! ». En fait on perd beaucoup trop, on a trop de petites entreprises et de startups qui ne ressemblent à rien.
Quand tu regardes la Station F3 ou la French Tech4, tu as une pléthore de trucs qui sont ! Quand je te dis le Airbnb des pierres tombales ou le lacet connecté je te fais rigoler, mais franchement il y en a qui ne sont vraiment pas loin de ça.

Lucas Gautheron : Il y a la startup qui fait les slips anti-ondes, qui a recueilli des investissements de la BPI [Banque publique d'investissement].

Jean-Baptiste Kempf : Là, quand tu arrives sur les anti-ondes ! On est dans de l’anti-scientifique total et c’est n’importe quoi.
Il faut quand même faire attention, je modère un petit peu, aux États-Unis c’est pareil. En fait le ratio que tu as normalement, c'est que sur dix boîtes qui reçoivent de l’investissement, tu as en a une qui explose, deux qui sont à l’équilibre, qui sont des boîtes qui sont des boîtes normales et sept qui se pètent la gueule. Ça c’est le ratio normal, c’est un peu de darwinisme social, c’est vrai, mais c’est ce qui se passe.
Le problème c’est qu’aujourd’hui sur la French Tech on est plutôt à un, peut-être cinq et 100. Le problème c'est surtout qu’il y a plein de boîtes qui, quand elles commencent à vraiment décoller, se font rafler par des Américains qui ont beaucoup d’argent ou des Anglais, donc en fait on n’a rien ! Ça, c’est vraiment un des problèmes.
Le deuxième problème, c’est que les boîtes du CAC 40 considèrent que plutôt que de faire de l’innovation en interne elles vont plutôt aller faire leur shopping de startups, comme ça elles montrent qu’elles sont innovantes : « C’est super ! Regardez on est cool ! ». Ça fait super cool ! Leurs boards achètent des boîtes et ils n’en font rien ou ils la détruisent parce qu’en fait finalement « oui, mais tu comprends, ça nous prend un peu de marché ». Finalement, ces gros groupes vont avoir des gros soucis dans le futur parce qu’ils ne savent pas innover.

Lucas Gautheron : Justement là-dessus il y a un bouquin qui est intéressant, je ne sais pas si tu l’as lu, de Nick Srnicek, Capitalisme de plateforme. Il explique bien, notamment il fait une typologie des types de plateformes et il met de côté, par exemple, les Uber et Deliveroo. Selon lui, leur succès est vraiment dû à des conditions particulières qui ne sont pas amenées à durer : il y a un chômage élevé qui pousse les gens à se diriger vers des jobs mal payés. Par ailleurs il y a une politique monétaire qui fait qu’il y a du cash et qu’il y a des entreprises qui cherchent à investir un peu partout. Finalement on a l’impression que certaines de ces plateformes c’est un peu du toc, c’est-à-dire que derrière c’est surtout le lobbying, ce sont surtout les circonstances favorables qui font que ça existe et pourtant c’est désigné comme la quintessence de la startup.

Jean-Baptiste Kempf : Mondialement ce n’est pas considéré comme la quintessence de la startup.

Lucas Gautheron : Je ne dis pas, mais dans le langage un peu…

Jean-Baptiste Kempf : Ce qui est tout à fait vrai c’est surtout que c’est aussi de la condition légale. Les Français et en général les Européens ont ce que j’appelle cette diarrhée légale et adorent faire des trucs hyper-compliqués. En fait, ça devient tellement compliqué que tu crées des niches, en fait des failles. Ce qui n’est pas bien quand il y a trop de lois et qu’elles sont trop compliquées, c’est que les seuls qui en profitent ce sont les riches. Par exemple Uber exploite complètement le droit du travail, mais, en même temps, le droit du travail c’est tellement compliqué ! C’est une circonstance, ils sont très forts, c’est-à-dire qu’ils n’ont pas de morale, c’est l’exploitation totale.
Il y a des plateformes comme ça, là on parle de tout ce qui est ubérisation, même dedans tu as plusieurs niveaux. C’est-à-dire que quand tu commences un peu à voir ces entreprises, tu as des boîtes qui sont vraiment des sous raclures, Uber, et tu as des boîtes comme Airbnb, qui ont des problèmes en interne, c’est une boîte, mais ce ne sont pas des vrais connards.
En fait c’est très difficile parce que tu mets tout ça dans un groupe. Dans ces plateformes qu’on a appelées maintenant d’ubérisation, qui est de la désintermédiation totale et du profit de l’autoentrepreneur, tu as plein de choses différentes, des mecs qui sont un peu limite à des mecs qui sont vraiment des mecs crades.

Lucas Gautheron : Dans le bouquin, il parle un peu aussi des stratégies de ce qu’il appelle les plateformes pour s’étendre, dominer ; il y a justement un peu un catalogue de stratégies. D’abord il y a une stratégie qui consiste à développer des dépendances en créant des écosystèmes dans lesquels on verrouille complètement les gens. C’est ce que font par exemple les GAFAM, par exemple Facebook, où l’idée est qu’on puisse consulter Internet, vivre sur Internet sans sortir de Facebook.
Il y a d’autres stratégies comme exploiter les données, les algorithmes, pour asseoir leur domination en mettant des barrières d’entrée aux éventuels compétiteurs. Il cite l’exemple de Rolls-Royce qui loue ses moteurs et leur maintenance aux constructeurs d’avion et qui, derrière, peut utiliser toutes les données accumulées sur les données de contrôle pour avoir un avantage énorme.

Jean-Baptiste Kempf : Netflix fait la même chose.

Lucas Gautheron : Netfix fait la même chose, c’est-à-dire ? Tu peux expliquer ?

Jean-Baptiste Kempf : Avant Netflix toutes les données de production et de visionnage étaient à peu près partagées dans l’écosystème. Tu pouvais savoir, tu avais une connaissance globale avec Ciné Chiffres, avec Rentrak, avec des choses. Toute l’industrie avait les informations de quels films avaient fonctionné en télé, en radio, en DVD, etc. Aujourd’hui tu n’as aucune donnée. C’est-à-dire que tu n’as aucun moyen de savoir si La casa de papel ou Carnival Row a fait un million de vues, cinq millions de vues, dix millions de vues, cent millions de vues. En fait, ils utilisent ces informations de vues et de likes pour avoir un avantage incroyable. C’est-à-dire que Netflix, quand ils vont voir des producteurs, maintenant ils disent « je veux ça ». Ils ont la démographie, ils savent comment ils veulent que ça fasse… Ils ont quasiment des potentiomètres, autant de drama, autant de trucs comme ça. Ça c’est parce qu’ils ont des données très fortes. Mais tu ne peux pas mettre Netflix dans la même catégorie que Uber. Netflix n’exploite pas la misère humaine.

Lucas Gautheron : Ça peut être un problème d’être dépendants de plateformes qui occupent un espace.

Jean-Baptiste Kempf : C’est évident, mais, en même temps, personne ne travaille pour aller casser des plateformes. Il n’y a pas d’investissements. Le Media, vous êtes diffusés sur YouTube. YouTube c’est un monopole monstrueux.
Pourquoi est-ce qu’on a ces plateformes ? C’est qu’en fait il y a un système de winner takes all. C’est-à-dire qu’on s’est rendu compte que sur Internet, et c’est la première fois, c’est celui qui prend qui gagne. Tu ne vas pas arriver dans un triumvirat avec un leader qui a 40 % et puis deux/trois mecs qui ont 20 % derrière. Par exemple l’Oréal, ils ont un gros marché et, en fait, il y a quand même plein d’acteurs. Quand tu arrives sur des Facebook ou des Google, quand ils prennent le marché, ils ne s’arrêtent pas à 50 %, ils arrivent à 90 %, et ensuite tu ne peux pas t’en sortir. À ce moment-là, une fois qu’ils ont leur marché, ils utilisent les données, ils utilisent en fait surtout leur capacité légale et leur lobbying pour rester en place.
Par exemple la GDPR5 qui a été votée par les Européens contre les cookies, etc., soi-disant pour embêter Google, en fait ça a aidé Google parce que Google a eu la capacité financière pour s’adapter et tous les autres n’ont pas réussi.

Lucas Gautheron : Et ça fait chier les petits !

Jean-Baptiste Kempf : Et ça fait chier les petits ! En fait, ils ont un marché et c’est très difficile de casser leur marché. Ce que tu vas pouvoir faire c’est aller récupérer quelques petites niches qui ne sont pas intéressantes pour eux, mais c’est très difficile à casser parce que, justement, Internet a cet effet réseau, c’est ce qu’on appelle la loi de Metcalfe6 qui fait que la valeur d’un réseau est au carré du nombre de peers. En fait, tu es dans ce cas un peu bizarre qui fait que quand tu gagnes, tu gagnes tout le marché. Et, à ce moment-là, tu as des mécanismes techniques que tu n’avais pas dans les industries traditionnelles où tu peux rester en place et c’est impossible de te déboulonner.

Lucas Gautheron : Je t’ai aussi posé cette question parce que justement sur ces deux aspects particuliers qui est verrouiller les gens dans un écosystème et, par ailleurs, exploiter les données, quelque part, VLC, est-ce que vous n’êtes pas un peu l’anti-plateforme de ce point de vue ? Vous développez les moyens qui favorisent l’interopérabilité puisque votre souci c’est d’avoir quelque chose qui est assez universel en termes de contenus accessibles et qu’on peut décoder et, par ailleurs, vous créez un espace libre où les gens peuvent passer, consulter des contenus sans qu’il y ait une exploitation de leurs données. Vous incarnez une anti-plateforme, non ?

Jean-Baptiste Kempf : C’est vrai. On a un côté très décentralisé, mais, de fait, on n’est pas une plateforme. Aujourd’hui dans VLC tu n’as pas de contenu. Tu l’utilises pour regarder les contenus que tu as récupérés légalement ou illégalement, ce n’est pas mon problème. Les gens utilisent VLC pour faire plein de trucs. Il y a des gros connards qui utilisent VLC, il y a des mecs qui sont absolument des saints qui utilisent VLC, moi je n’ai pas le contrôle. On n’a pas de plateforme dans VLC. On se pose justement la question d’amener du contenu pour aller voir ce qu’on peut faire pour que les gens puissent justement apporter leur contenu à la masse sans devoir passer par une plateforme, mais ça demande une vision, une volonté et, malheureusement, de l’argent.
Par exemple moi je ne suis pas une plateforme, je ne pourrais pas avoir une plateforme, ça coûte trop cher ! Aujourd’hui je n’ai pas l’argent. C’est un peu la limite du modèle, c’est que pour aller se battre contre les plateformes, les grosses plateformes, il faudrait du cash et ce cash je ne l’ai pas.

Lucas Gautheron : On a parlé un peu de la question du cadre juridique. Tu as mentionné le fait qu’il y a VideoLAN qui est l’association et ta société qui ressemble un peu à une SCOP. Il se trouve que nous, au Media, il y a une association et une société et on veut se transformer en société coopérative. Je ne sais pas si tu connais Mobicoop, c’est un peu l’équivalent d’un BlaBlaCar mais en forme coopérative. Est-ce que tu penses que ça fait partie de la réflexion, cette question du cadre juridique ?

Jean-Baptiste Kempf : Oui, ça fait partie de la réflexion mais ça n’est pas suffisant. Là on ne parle pas juste des plateformes mais vraiment de la partie GAFAM. Par exemple tu vas prendre l’exemple d’Apple, Apple ils n’ont pas du tout la partie plateforme où ils arnaquent, quoi ! Ils vendent un truc hyper cher qui est un produit de luxe et les gens achètent pour plein de raisons sociales, mais ils sont moins limites que Facebook. Malgré tout, pour aller contre ces gens-là, ça va être très difficile d’aller concurrencer Apple.
En fait tu dérives des plateformes en général sur les GAFAM qui eux ont un tel poids, que leurs pratiques soient nouvelles ou anciennes. Que ce soit Uber ou Apple, ce n’est pas pareil. Et là c’est vrai que c’est très difficile parce qu’il va falloir des moyens de financement et surtout il faut que ce soit facile. Ça c’est un des problèmes principaux que je vois et je pense que c’est une des raisons pour lesquelles VLC fonctionne. Les gens n’utilisent pas VLC parce que c’est open source. 99,999 % des gens, , quand ils utilisent VLC, n’ont aucune idée que c’est open source ; ils n’ont aucune idée que c’est libre et ils s’en foutent. Ils utilisent VLC parce que ça marche. Et ça c’est important, c’est que quand tu arrives avec une alternative, il faut que l’alternative soit aussi facile à utiliser. Là on sort du cadre GAFAM ou même informatique, les gens ne vont pas changer. Si, à tout à tout problème social, ta réponse est « il faut changer les gens », tu as perdu. D’accord ? Je vais changer les gens. Non ! En fait tu ne changes pas les gens. Tu peux changer les gens si ce que tu leur proposes c’est soit un tout petit peu plus facile à utiliser – par exemple avec VLC c’est plus facile d’aller télécharger qu’avec l’iPad, donc les gens vont l’utiliser – soit tu es au même niveau de difficulté mais tu rajoutes un truc moral. Par exemple trier les ordures ce n’est pas très compliqué, ça te demande un effort supplémentaire mais le gain moral est tellement important que tu le fais.
Souvent dans les trucs open source ou même, en général, dans tout ce qui est environnement social, on te dit « il faudrait que tu fasses çà » et en fait le « ça » c’est un effort monstrueux.
Regarde Uber en tant qu’utilisateur, c’est tellement génial ! Je suis partout, je clique, ils arrivent. Les mecs ne peuvent pas annuler, ils ne peuvent pas t’engueuler. En tant qu’utilisateur, quel changement ! Ça a même changé le fait que les taxis sont quand même vachement plus polis maintenant qu’il y a 15 ans. Il ne faut pas oublier que le client, l’utilisateur final, le client-utilisateur, c’est l’important. En fait, beaucoup trop de gens qui veulent se battre contre les plateformes, contre les GAFAM, oublient qu’il faut faire des produits qui soient sexy et des produits fonctionnels. Oui, tu vas pouvoir atteindre 10 % de marché en disant « regardez, on se bat contre les méchants ». Super ! Le Media : « Regardez, on se bat contre TF1 ». Mais en vrai, si tu veux dépasser une petite niche, il faut quand même que tu apportes quelque chose qui soit aussi bien. Le problème c’est que pour atteindre le niveau de « aussi bien », il faut des gens et ces gens coûtent cher.

Lucas Gautheron : Justement, on a l’impression que si on veut faire aussi bien et pas aussi mal dans le sens moral du terme que les Facebook et les Google, il va falloir des moyens assez énormes. Tu dis qu’il y a la question du financement.

Jean-Baptiste Kempf : Attention ! Ils ne sont pas aussi énormes. En fait, tu as vu ce qu’ils ont fait. Tu as quand même un avantage, c’est que tu n’es pas le premier entrant. Tu peux te rendre compte qu’ils ont fait des conneries – ça ce sont les conneries – et surtout il y a des technos qui sont développées, donc ça coûte moins cher. Et surtout, si ton but n’est pas forcément d’écraser la concurrence, ta croissance peut être plus faible, donc tes moyens ne sont pas aussi importants. Par contre, ils ne sont pas nuls, il ne faut pas l’oublier !

Lucas Gautheron : Qu’est-ce qui manque justement ? Est-ce que c’est l’engagement des États ?

Jean-Baptiste Kempf : Au début, en fait il n’y aurait pas besoin de grand-chose. Mais là on a un tel retard que ouais, il faudrait avoir des investissements étatiques, je pense, par exemple sur certains sujets, avoir un OS de smartphone ouvert, l’équivalent de Google Docs ou d’Office 365, des choses comme ça que finalement tout le monde utilise. Je suis sûr qu’au Media vous utilisez Google Docs. Ouais ? [Rire gêné de Lucas Gautheron, NdT]. Évidemment. Là il y a un besoin. On a un tel retard qu’il y a un besoin. Il faut aussi avoir un système de financement de startups et de bonnes startups qui soit fonctionnel et vertueux. C’est possible, mais pour ça il faut avoir un cadre légal et il faut surtout avoir des hommes politiques qui comprennent ce qu’ils font et aujourd’hui on n’a pas ça en France.

Lucas Gautheron : On peut peut-être parler de l’exemple de Qwant7, le moteur de recherche français qui a quand même l’ambition assez grande de concurrencer les autres et qui a des financements, pour le coup, des financements européens même. Il y a quand même pas mal de controverses sur le sujet. En gros, on lui reproche, finalement, de réutiliser des technologies qui sont issues d’autres plateformes, de ne pas être une véritable alternative. C’est quoi le problème ? Je crois que c’est à RFI que tu as dit que tu voulais reprendre le truc, c’est ça ?

Jean-Baptiste Kempf : À un moment il y avait un article dans Le Monde qui était « Ils cherchent un nouveau CIO [Chief In­for­ma­tion Of­fi­cer] ». Ils ont trouvé, finalement ils ont pris le PDG adjoint. J’ai envoyé un mail en disant : « Vous êtes sûrs que vous ne voulez pas que je vienne ? » C’est une boutade, mais pas forcément.
Attention ! On a raconté tout et n’importe quoi. Il y a eu des controverses, je pense en particulier qu’ils ont fait des erreurs. Ils arrivent sur un marché qui est très compliqué, qui est très difficile, ils veulent aller vite. Personnellement, de ce que je comprends, je pense qu’il y a une partie du management de Qwant qui n’est pas assez bonne et qui est trop bien payée, mais surtout il y a une erreur de technique. Google ça a marché parce qu’à l’origine c’était techniquement meilleur. On revient à ce que je disais tout à l’heure, il faut que tes produits soient sexy. Si tu n’as pas des produits sexy, c’est embêtant.
Par contre, le débat, la polémique sur le fait qu’ils utilisaient le cloud Microsoft, c’est une fausse polémique. En fait, plus tard, ils pourront utiliser le cloud OVH s’ils sont fonctionnels. C’est juste que Microsoft leur a donné des crédits gratos et ils utilisent ça pour s’imposer. Ça ne me pose pas du tout de problème.
Il y a une autre polémique dans la sous-polémique qui est qu’ils utilisent les résultats de recherche de Bing, et là c’est un petit peu plus touchy, mais je comprends encore, il faut : tu as un retard, tout est justifiable. Tu peux prendre plein de raccourcis du moment que tu as un plan. C’est ça qui est important : avoir un plan pour en sortir. Une fois que tu utilises, tu déploies sur le cloud de Microsoft, si tu te débrouilles bien, une fois que tu déploies sur le cloud de OVH ça ne changera pas grand-chose. Utiliser les résultats de recherche de Bing c’est déjà plus embêtant parce que là tu dépends vraiment sur ton cœur de métier.

Lucas Gautheron : On ne peut pas accepter ça, le projet c’était justement…

Jean-Baptiste Kempf : Oui, mais quand tu commences ! Arriver aujourd’hui, le jour un, et monter un Google, comme ça [claquement de doigts, NdT], je te dis c’est 200 millions, 300 millions, peut-être un milliard, ça doit être un milliard pour avoir un truc qui est à peu près correct.

Lucas Gautheron : Est-ce que justement l’enjeu ne le justifie pas ?

Jean-Baptiste Kempf : Oui, mais où vas-tu trouver un milliard ?

Lucas Gautheron : Quand même, si on fait ça à un échelon… ?

Jean-Baptiste Kempf : Non, je n’y crois pas. Ça avait été un peu essayé dans le passé avec un truc européen dont j’ai oublié le nom, tu vois ça m’avait pas marqué, Quaero8, un truc comme ça. En fait, tu ne peux pas juste mettre de l’argent. Il faut aussi des gens qui leadent et qui aient l’envie.
Ce qui est bien chez Qwant c’est qu’ils ont quand même des mecs super bons. Il y a un mec comme Tristan Nitot [Tristan Nitot a quitté9 Qwant depuis mars 2020, NdT], ils ont monsieur Champeau qui sont vraiment des mecs qui comprennent ce qu’ils veulent et qui ont une vraie vision, mais je pense quand même que Qwant n’investit pas assez dans sa technique, mais ça c’est un avis de geek qui n’y travaille pas. VLC, c’est parce que techniquement c’est génial que ça fonctionne. Je pense que chez Qwant ils ont un peu oublié ça.

Lucas Gautheron : C’est un problème stratégique ou tu penses qu’il y a aussi un défaut de main d’œuvre qui est prête à se lancer dedans ?

Jean-Baptiste Kempf : Attends ! Ils arrivent, ils ont un projet. Ils doivent gérer des RH [Ressources humaines], des gens décentralisés, l’État qui arrive, les trucs politiques, tout le monde qui leur dit « regardez quand je fais cette recherche », les réseaux sociaux, etc. En fait c’est très compliqué. Ils ont grossi très vite et c’est difficile.
L’exemple typique, c’est Mozilla, une boîte qui a 500 millions de dollars par an et qui en fait une catastrophe : Firefox10 c’est maintenant 5 % des parts de marché alors qu’il en avait 30.
Grossir très vite, c’est difficile parce qu’il faut structurer. VLC on est tout petit et on est efficace aussi parce qu’on est tout petit.

Lucas Gautheron : Si l’enjeu c’est de reprendre possession du numérique et ne pas l’abandonner à des gens qui ont toutes sortes de projets mais qui ne sont pas forcément liés à nos intérêts, ça signifie, à priori, qu’il faut maîtriser toutes les technologies et toute la chaîne des composants et de la production. Utiliser des logiciels et des systèmes d’exploitation libres ça ne suffit pas, il faudrait par exemple pouvoir fabriquer nos propres processeurs. Est-ce que la France en est capable ?

Jean-Baptiste Kempf : Oui !

Lucas Gautheron : Est-ce qu’on en est capable ? On a déjà le niveau ? Qu’est-ce qui bloque alors ?

Jean-Baptiste Kempf : Il n’y a pas de technologie trop compliquée pour les Européens pour le moment. L’intelligence artificielle ce n’est pas un problème de technologie, c’est un problème de volume de données. C’est là la limite.

Lucas Gautheron : Oui, mais c’est quand même un problème ne serait-ce que ça parce qu’on n’a pas forcément envie d’accepter n’importe quel…

Jean-Baptiste Kempf : Oui, mais tu peux faire beaucoup de choses avant d’arriver aux limites. Oui, c’est sûr, tu as un retard techno, peut-être, mais avant d’arriver au moment où on a le retard technologique ! Aujourd’hui pour monter un Uber décentralisé, fédéré, il n’y a aucun problème technique. Arrête de nous raconter n’importe quoi ! Ça reste une mise en relation de gens sur Internet. C’est une plateforme, il n’y a pas de raison ! Ton Airbnb, c’est la même remarque !

Lucas Gautheron : Ce n’est pas forcément ce qu’on a envie de faire.

Jean-Baptiste Kempf : Ce que je veux dire c’est qu’avant d’arriver aux limites technologiques françaises… Tu mentionnais les processeurs. Je rappelle qu’en France on a un fondeur qui s’appelle ST Microelectronics qui est à Crolles, à Grenoble, qui a aussi une partie en Italie. Ils ont des capacités, on a des capacités et surtout il y a tout ce qui est maintenant open source sur les microprocesseurs avec tout le produit qui s’appelle Open Risk11. Il y a des choses à faire. Je ne crois pas à la barrière de la techno.
Par contre il y a trois problèmes : il y a un problème politique qui est un vrai problème c’est que nos dirigeants et alors là, de tous les partis, sont des gros nuls.

Lucas Gautheron : Pourquoi ils sont des gros nuls ?

Jean-Baptiste Kempf : Ils sont des gros nuls parce que ce sont des hommes politiques professionnels et parce qu’ils sont complètement dépassés. Ils ont 50 ans, et encore je suis poli parce que la moyenne d’âge au Sénat ça doit être plutôt 75, ils n’ont jamais rien compris et surtout ils sont, sans dire élite, d’une classe sociale où tout leur est arrivé directement. C’est le même problème que tu as à la tête de l’Oréal où tous mes anciens camarades de promotion centraliens pensent que faire des slides c’est bosser. Ils ont un tel décalage par rapport à la vraie vie qui fait qu’ils ne comprennent rien à Internet. Après l’histoire Griveaux puis l’histoire Castaner, maintenant ils se mettent à essayer d’attaquer l’anonymat sur Internet ou le pseudonymat alors qu’on sait qui c’est. Ça n’a pas été posté sur une plateforme.

Lucas Gautheron : C’est un prétexte !

Jean-Baptiste Kempf : Bien sûr, c’est un prétexte, mais pas seulement. Ils sont tellement à côté de la plaque. Ils ne sont pas juste un peu à côté de la plaque, ils sont tellement à côté de la plaque ! Donc il y a un problème politique grave.
Il y a un problème de financement, malheureusement, et de source de financement. Il faut que les grosses boîtes françaises réinvestissent dans les techs françaises et dans les techs, pas dans le hub, dans une énième plateforme de désintermédiation. Je pense que c’est le deuxième problème.
Le troisième problème, c’est un truc assez français, c’est de ne pas croire en la technologie. C’est bizarre, on fait beaucoup d’ingénieurs, mais en fait les ingénieurs sont considérés comme, je ne vais pas dire des sous-merdes, mais quand même pas loin. Aux États-Unis, les beaux gosses chez Google, chez Facebook, ce sont les ingénieurs. En France, les ingénieurs sont sous-payés, ils sont payés moins bien que les marketeux. On parlait de Qwant. Je parie que si on prend la grille de salaire, le directeur marketing est plus payé que le directeur technique. Et c’est un vrai problème parce que c’est comme ça que tu gardes les gens bons.

Lucas Gautheron : À quoi tu attribues ça, cette espèce de religion ? On délaisse un peu l’aspect technique ? D’ailleurs je voulais te demander : est-ce que tu ne souscris pas à la thèse d’Emmanuel Todd sur la crétinisation des élites ? Tu dis que le problème ce sont nos dirigeants politiques qui sont à la ramasse, les grandes boîtes n’investissent pas au bon endroit.

Jean-Baptiste Kempf : Je ne sais pas parce que je n’ai pas bien lu et là on va arriver vraiment dans la limite. Je vais dire une connerie, mais oui je pense qu’il y a un vrai problème d’élites et de reproduction sociale qui est que c’est trop facile pour eux. Comme c’est trop facile pour eux, en fait ils n’ont pas à faire l’effort.
Faire VLC, c’est du boulot. Quand les gens me demandent combien d’heures je bossais, je ne réponds pas parce que franchement il y avait des moments, il y avait des semaines, notamment quand je ne faisais pas ça à temps plein, où je faisais 90 heures, je prenais mes vacances pour aller faire des conférences VLC. Il y a un travail. Le travail est important et il ne faut pas l’oublier. C’est vrai qu’il y a un petit risque en France c’est d’oublier cette valeur et c’est dommage. On aime bien être cool en France, mais les Chinois et les Américains ne vous attendent pas !

Lucas Gautheron : J’ai une question un peu je ne dirais pas philosophique, quand même pas jusque-là. Il y a suffisamment d’utilisateurs de VLC pour dire que c’est une contribution qui n’est pas négligeable à l’économie mondiale d’une certaine façon. Finalement il y a pas mal d’entreprises qui peuvent s’en servir et s’en servir gratuitement. Est-ce que ce n’est pas un problème qu’elles puissent tirer un profit, profiter finalement de quelque chose qui a été conçu hors de leur cadre, qui est peut-être le fruit des formations dont vous avez bénéficié dans un établissement qui est public, Centrale ? Est-ce que cet accaparement-là ne te gêne pas ? Est-ce que finalement tu trouves que c’est normal ?

Jean-Baptiste Kempf : En fait, la partie open source et libre marche si tout le monde joue le jeu. C’est vrai que c’est un peu problème. En fait, là on parle de VLC, mais on a un peu dérivé. Il y a VLC et il y a les autres projets open source que les gens du grand public ne connaissent pas qui sont Ffmpeg, qui sont x264 qui est un encodeur vidéo fait par le projet VideoLAN12. En fait, toutes les vidéos que tu vois sur Internet, tout YouTube, tout Facebook, pas tout Netflix mais à mon avis quasiment, tout ce que tu vois en ligne en vidéo est fait par ce groupe de personnes, 50/60, la communauté VLC et deux/trois autres communautés à côté. Les plateformes et les grands groupes, en fait, ont vraiment un aspect prédateur, ils arrivent, ils prennent et surtout ils ne donnent quasiment rien. Ou ce qu’ils donnent c’est une sous-partie.
Si, par exemple, il n’y avait pas x264 en open source, l’encodeur vidéo de VideoLAN, ça coûterait à YouTube 20, 50, 100 millions de dollars par an, et ce qu’ils donnent à la communauté ce sont des miettes.
En fait c’est un problème moral de profiter et d’utiliser toutes les technologies open source en disant « elles sont mises à disposition, ça aide tout le monde, ça permet de ne pas redévelopper 40 fois le même truc et de se focaliser sur les choses qui sont vraiment à haute valeur ajoutée ». Mais, en même temps, il faut quand même jouer le jeu et tu as de plus en plus de gens qui ne jouent pas le jeu. Les entreprises françaises sont comme les américaines là-dessus, c’est-à-dire que vraiment tu n’as pas de moralisation.
L’État fait la même chose. L’État préfère payer des centaines de milliers, voire centaines de millions d’euros, des consultants pour aller faire des déploiements absolument débiles de paye – on a eu l’Éducation nationale 323 millions, Louvois [Logiciel unique à vocation interarmées de la solde pour le ministère de la Défense – et ça ne les gêne pas de mettre énormément de pognon dans des sociétés de service, par contre il n’y a aucun code qui est réutilisable et qui peut bénéficier à tout le monde. Ça c’est un vrai problème. Qu’une entreprise ne soit pas morale, finalement c’est le capitalisme ultralibéral. Tant pis ! Il faudrait le changer, etc., mais ce n’est pas moi, à ma petite échelle, qui vais le changer. Mais quand les États, notamment un État comme l’État français ou l’État allemand, dépensent des milliards, quand même, dans leurs outils informatiques et ne contribuent quasiment rien, c’est grave ! Alors qu’ils ont des exemples comme VLC qui sont grands. C’est un peu le problème, moi quand je me présente avec VLC, surtout aux politiques, je dis : « Bonjour, je fais le logiciel français le plus utilisé au monde et en fait, entre parenthèses, et le moins rentable. »

Lucas Gautheron : À ton avis, si les États ne font pas davantage pour l’imposition de ces plateformes qui profitent finalement, qui s’accaparent les fruits de l’innovation, est-ce que c’est parce que le rapport de force ne leur est pas favorable ou est-ce que c’est parce qu’ils adhèrent à cette religion-là que ces plateformes sont motrices de l’innovation, que finalement c’est normal ?

Jean-Baptiste Kempf : Tu as plusieurs parties. Sur la partie plateforme, par exemple le soutien à Uber ou Airbnb, c’est qu’en fait ils voient que ça permet d’embaucher de façon partielle des gens. Donc là « oh super, etc., ça fait embaucher des gens qui bossent, ça augmente un peu, ça soutient le PIB ». Et ça, à la limite, c’est un argument que je peux comprendre quand tu n’as pas d’alternative.
Après, sur la partie solutions numériques et vraiment solutions, là c’est du foutage de gueule total parce c’est juste par fainéantise, parce qu’ils connaissent ça et notamment parce que les hommes politiques ne connaissent que les gros groupes ; ils n’ont vu que ça et c’est la technique de save your ass. Tu ne prends que le leader parce que…

Lucas Gautheron : « Sauve ton cul », c’est ça ? Je traduis parce qu’on m’a dit qu’il fallait traduire.

Jean-Baptiste Kempf : Tu ne te feras jamais engueuler si le projet ne fonctionne pas parce que tu as choisi le leader : « Désolé, j’ai acheté Microsoft, je ne comprends pas pourquoi ça ne marche pas ! ». Alors que si tu prends un risque en prenant une plateforme plus petite, un truc français, et que ça ne marche pas, c’est toi qui te fais virer. En fait, vis-à-vis de tes supérieurs, tu sauves ton cul, tu prends le minimum de risques. Les hommes politiques français et les gens dans les grosses boîtes c’est la culture de « je ne prends pas de risques ». Il faut comprendre ça.
Un des points positifs de la French Tech, c’est qu’on a quand même un peu une culture du risque qui arrive. Avant, quand tu plantais une boîte en France, tu étais fiché à la Banque de France, tu étais tricard, tu ne pouvais plus faire de prêt, tu ne pouvais vraiment rien faire. Ça c’est très embêtant ! Les Américains aiment bien les gens qui ont planté une boîte parce qu’en fait, quand tu as planté une boîte avant tu as appris des trucs et en te plantant tu as appris plus qu’en ayant du succès. Les grosses startups qui ont fonctionné, c’est de la chance. Les mecs qui ne te disent pas que c’est de la chance ce sont des menteurs ou ce sont des mecs qui ont vraiment un ego monstrueux.
Par exemple Facebook ce n’était pas le premier réseau social, il y en avait plein avant qui marchaient, mais il était au bon moment, aux États-Unis, dans une bonne démographie. Son but original n’était pas du tout de faire Facebook, c’était d’avoir des photos des nanas pour les noter. Il faut quand même le rappeler ! Il était au bon moment et ça a cartonné.
Donc il faut beaucoup de travail, il faut pas mal de cash malheureusement, et ça, ça vient après, mais il faut avoir de la chance. Pour avoir de la chance, il ne faut pas avoir peur de prendre du risque, et en France on a cette aversion au risque très forte. C’est pour ça que c’est bien que les jeunes veuillent monter des startups. Je dis que c’est dommage qu’on leur laisse faire n’importe quoi, mais c’est bien parce que ça te donne la culture du risque en disant je vais essayer un truc et si ça merde eh bien ça merde, mais ce n’est pas grave !
Par exemple Le Media n’est pas diffusé sur la TNT. Vous avez essayé un truc, vous avez eu plein de problèmes, j’en suis sûr.

Lucas Gautheron : On va en parler au passé.

Jean-Baptiste Kempf : Pourquoi ? C’est hyper-important. Tu prends un risque, c’est un risque important de lancer des nouveaux médias et si ça marche c’est cool, si ça ne marche pas ce n’est pas grave, on en fera un autre.
Cette culture du risque est absolument absente chez les élites françaises et c’est dommage.
Qwant c’est super, ils ont une culture du risque, c’est un projet. Ils s’en prennent des baffes ! Les seuls gens qui ne se prennent pas de baffes ce sont les gens qui ne font rien et qui n’essayent pas : je veux être directeur ! Plutôt que de monter Qwant, ils pourraient être directeurs techniques chez l’Oréal, ils seraient payés dix fois plus, ils seraient tranquilles, ils ne foutraient pas grand-chose, ils seraient en réunion à se gratter le bide pendant des heures et des heures et à prendre des cafés.
C’est bien de créer et d’essayer. C’est dur, c’est sûr, et des baffes tu t’en prends, mais il n’y a qu’en ne faisant rien que tu ne prends pas de baffes.

Lucas Gautheron : Je voudrais finir par une question un peu personnelle mais pas trop, ne t’inquiète pas.

Jean-Baptiste Kempf : Tu peux poser des questions personnelles, au besoin je ne te répondrai pas.

Lucas Gautheron : D’accord. J’ai lu que tu te définissais dans Society comme un libertarien et cependant tu disais que tu n’étais pas choqué s’il fallait payer 50 % d’impôts. Comment tu vis cette contradiction ?

Jean-Baptiste Kempf : En fait c’est très compliqué. Je ne rentre pas du tout sur l’échiquier politique français- En France il y a plein de mots autour de la liberté, qui sont soit « libertarien » soit « libertaire », qui sont des notions qui sont finalement débiles et très loin de ma pensée parce qu’en fait, les libertariens américains, c’est Madelin, c’est l’ultralibéralisme, c’est le laisser-faire de faire n’importe quoi. Alors que moi je suis plus au sens vraiment liberté de la Révolution française, du slogan français, c’est vraiment la partie liberté sociale, pas du tout économique.
En fait je suis très embêté avec toute la gauche française qui, pour moi, ne fait que faire de l’interdiction. On a un côté français, je vais choquer pas mal de vos gars mais ce n’est pas très grave, qui est un côté très stalinien : « il y a un problème, on va interdire » et c’est un problème de la gauche française en général. Ça te fait juste plus, plus de lois qui sont compliquées, plus, plus d’impôts. En fait je suis absolument contre les lois compliquées. Je pense qu’on a trop d’impôts et de niches fiscales en France, pas en volume, ça ne me choque pas qu’on ait 55 % de prélèvements obligatoires. Ce qui me choque c’est que ces 55 % soient sur 400 impôts et 9000 niches fiscales. Les gens qui vont profiter des niches fiscales ou de la complexité légale, ce sont les gens qui ont l’argent pour se payer des fiscalistes, des juristes et des avocats. Les gens qui se font niquer la gueule à la fin ce sont les petites gens, ce sont les gens normaux.
Il y a encore des mecs qui font de la prison ferme : un agent qui a détourné de l’argent public, je crois que c’est 130 000 euros et il fait de la prison ferme. Nos hommes politiques, par contre, ce n’est pas 100 000, ce sont des millions et eux ne prennent jamais rien !

Lucas Gautheron : Ou quand ils vont en prison, on les fait sortir assez vite.

Jean-Baptiste Kempf : Balkany c’est la première fois ! Ce n’est pas grave que Balkany soit sorti, c’est embêtant, etc., mais l’important c’est qu’il soit rentré ; la première fois qu’on en a mis un en taule ferme, « ce soir vous allez en taule ». Ce n’est pas « oui, bon, on va faire un truc qu’on tournera en sursis, puis on a l’application des peines. » Moi je n’aime pas du tout le système que la gauche française pousse un peu, qui est « il y a un problème, on va faire une loi ». En fait on fait plein de lois, elles se battent les unes les autres, et ceux qui sont capables de passer entre les lois, ce sont les gens qui ont de l’argent ou du pouvoir. Je suis énormément pour avoir des trucs très simples. Par exemple on parlait impôts, je suis absolument contre tout ce qui est seuil. Je suis absolument contre les tranches parce que ça te fait des effets de seuil qui sont toujours problématiques.

Là je vais peut-être dire une connerie, on me corrigera, je crois que LFI [La France insoumise ] ne voulait plus de 5 tranches sur le revenu, mais passer à 11. C’est la même bêtise en fait ! C’est-à-dire qu’il ne faut qu’il y ait 5 tranches, 11 tranches, 20 ou 50. Il faut qu’il y ait une infinité des tranches. On n’est plus au 19e siècle ; on a des ordinateurs, on sait calculer, ça s’appelle une intégrale, il faut que tu aies une infinie de seuils au lieu d’avoir un système comme ça et on peut le définir.

Je suis pour un État beaucoup plus simple, des règles beaucoup plus simples.

Le problème c’est que les gens qui veulent des règles beaucoup plus simples, en général, c’est parce que de l’autre côté ce qu’ils veulent c’est moins d’État en volume. Moi je ne suis pas pour avoir moins d’État en volume, je suis pour avoir plus de liberté. Là on est dans les libertés fondamentales, on n’est pas du tout dans le libertarisme économique parce que je pense que les lois compliquées ça ne profite qu’aux élites et aux gros groupes.

Lucas Gautheron : Merci Jean-Baptiste Kempf.

Jean-Baptiste Kempf : De rien.

Voix off : Le Media est indépendant des puissances financières et n’existe que grâce à vos dons. Soutenez-nous sur lemediatv.fr. Et pour ne rien rater de nos contenus, abonnez-vous à nos podcasts.

La reconnaissance d’émotions dans la voix – Partie 2

mar, 08/18/2020 - 17:36


Titre : La reconnaissance d’émotions dans la voix – Partie 2
Intervenant·e·s : Laurence Devillers - Carole Lailler - Jean-Luc Marini
Lieu : Lab Pod, Axys Consultants
Date : juillet 2020
Durée : 36 min
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration :
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Jean-Luc Marini : Bonjour Carole et bienvenue pour ce nouveau Lab Pod.

Carole Lailler : Bonjour Jean-Luc, ravie de te voir sous la pluie orageuse aujourd’hui.

Jean-Luc Marini : Aujourd’hui nous ne sommes pas seuls, car nous avons le plaisir d’accueillir Laurence Devillers qui est professeure en intelligence artificielle et chercheuse au LIMSI [Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur] pour parler ensemble de la reconnaissance d’émotions dans la voix.
Bonjour Laurence. Vous allez bien ?

Laurence Devillers : Bonjour Jean-Luc. Très bien. Merci. Bonjour Carole.

Carole Lailler : Bonjour Laurence, ravie de te retrouver.

Jean-Luc Marini : Comment est-ce qu’on s’y prend pour concevoir un système de reconnaissance automatique d’émotions dans la voix ? Aujourd’hui, si jamais je voulais monter un système de ce type-là, par où je commencerais et quelles sont les étapes indispensables ?

Laurence Devillers : Les étapes indispensables c’est d’avoir un corpus de valeurs qui soit étiquetées correctement.

Carole Lailler : Les données, toujours les données.

Laurence Devillers : Voilà. Il est nécessaire de travailler sur l’obtention des données et sur l’annotation des données.
Je pense que la meilleure façon de faire c’est d’avoir des données de terrain qui soient le plus proches possible de la façon dont le système va être utilisé. Les données qu’on utilise en laboratoire ou qui viennent de données trop protégées montrent bien qu’on n’est pas robuste après. Si je prends la reconnaissance faciale, vous avez des données où vous avez 90 % de reconnaissance avec des scores incroyables en laboratoire, je passe dans la vraie vie, il y a de la lumière partout, ça réverbère, j’ai une personne âgée qui a des rides, j’ai donc dix sourires en même temps ! Enfin ça devient vraiment très peu robuste, donc il est essentiel d’être sur le spontané.

Carole Lailler : Voilà ! Un autre exemple, assez trivial aussi, mais qui se comprend bien : un système qui a été appris sur de la parole lue va être totalement mauvais pour transcrire notre conversation parce qu’on vient de se couper la parole, par exemple, et là on n’est pas encore dans l’émotion, on est seulement dans la transcription. Cette robustesse amenée par « je réfléchis à mon cas d’usage et au type de données – qui est mon saint Graal ? – » pour essayer de retrouver et de construire, de penser à la collecte, le corpus qui ira bien pour l’apprentissage en respectant éthiquement, effectivement, les éléments de collecte et en ayant à cœur cette diversité de représentation des locuteurs est fondamentale.

Laurence Devillers : Et puis ce n’est pas suffisant, ça dépend de ce qu’on veut en faire après. Pour l’instant, avec Carole, on a expliqué l’étape 1, c’est-à-dire si je veux détecter ponctuellement une émotion. Je dirais que dans ces cas-là on aura peu de chance d’avoir des scores très performants parce qu’on n’aura jamais assez de données, on n’aura jamais vu assez de diversité et surtout on est hors contexte. L’essentiel c’est cette interaction dialogique : vous êtes dans un contexte particulier donc il faut prendre en compte ce contexte pour arriver à mieux anticiper ce que pourraient être, finalement, les réactions. Je pense que dès lors qu’on a mieux encadré la situation, en fait on est plus à même de pouvoir prédire des comportements avec plus de fiabilité.
L’alignement entre les deux voix, entre la voix de la machine qui propose quelque chose et ce que vous êtes en train de faire, est important ; le temps de latence est important. Il y a aussi énormément d’hésitations qui vont être subtiles à prendre en compte, qui seront importantes. Et puis je crois qu’on est vraiment quand même dans des systèmes d’in-communication à l’heure actuelle, c’est-à-dire qu’on est très loin de la co-construction dont parlait Carole, on est très loin de la préservation de la face, de la théorie de Goffman, c’est-à-dire faire attention à ce que l’autre ne perde pas la face dans l’interaction et on est très loin du jeu de négociation et de séduction qui existe dans l’interaction vocale entre humains.
Avec des machines il faut avoir un objectif très clair de ce qu’on veut et pas du tout imaginer qu’on va pouvoir détecter une foultitude d’émotions.
Si vous êtes intéressé par une émotion particulière pour une pathologie particulière comme le stress, la dépression, vous avez vraiment des catégories très typiques, il faut travailler dans cette continuité en essayant de collecter le plus de données de ce type-là, tout en ayant toujours en tête qu’on devrait utiliser les prédictions de ces systèmes comme étant des enrichissements et non pas comme étant quelque chose qui va nous donner une puissance de décision puisqu’on voit que ce n’est pas très fiable, que c’est très différent entre les humains. On ne peut pas faire confiance à ces systèmes dans l’état actuel de nos connaissances et de tout ce que j’ai vu développer dans l’industrie ; on ne peut pas faire confiance à ces systèmes. On peut juste utiliser ce qu’ils peuvent prédire comme étant des indices en plus dans une stratégie plus globale, conversationnelle, qui met en œuvre différentes capacités qu’on essaie de détecter dans le comportement des gens.
Et la façon dont on pose les questions va aussi influer énormément sur les réponses, donc il faut bien comprendre ce mécanisme-là de manipulation audio aussi.

Carole Lailler : Et vocal, c’était le sujet de ma thèse effectivement. Je suis tout à fait d'accord avec Laurence.

Laurence Devillers : Et vocal.
Il y a une expérience géniale, que j’ai trouvée géniale parce qu’elle marche, tout de suite on comprend très vite, qui a été faite par l’Ircam [Institut de recherche et coordination acoustique/musique] qui était la suivante. On voulait regarder l’impact de sa voix sur son propre ressenti émotionnel. Vous prenez des gens, vous leur demandez de prononcer des mots et, dans le casque retour où ils s’entendent parler, vous modifiez leurs voix en montant le pitch, en montant la fondamentale pour aller vers un son plus aigu et plus positif tel qu’on l’entend, une voix féminine. On monte le pitch. Les personnes réalisaient ce test et celles dont le pitch avait été modifié étaient globalement plus heureuses que celles dont le pitch n’avait pas été modifié. Donc on est sans cesse en train de s’écouter, d’écouter l’autre, et de modifier la perception qu’on a. Ces façons neuro-fines de comprendre l’impact des émotions, on en est très loin dans les systèmes qu’on met en place.
Je crois qu’ils peuvent être très puissants, mais il faut bien cadrer et bien comprendre là où c’est utile.

Jean-Luc Marini : C’est clair. On voit bien l’importance des corpus, effectivement, dans ces systèmes, d’avoir des corpus suffisamment diversifiés et correctement annotés, d’où ma question : comment est-ce qu’on annote aujourd’hui ces corpus ? Est-ce qu’il y a des techniques particulières ? Est-ce qu’il y a des modèles d’annotation ?

Laurence Devillers : Il y a tout un travail, le micro-travail de toutes les personnes non payées ou sous payées par les GAFA, qui sont tout le temps en train d’annoter des données, n’est-ce pas, pour nourrir tous ces systèmes qui vont être capables de comprendre votre profil, qui vous aident. Toutes ces données sont annotées à plein de niveaux différents, en feuilletage, par tout un tas de petites gens ; je ne sais pas comment c’est fait mais ça fait très peur parce que, finalement, où est l’expertise ? Elle est bien dans l’annotation qu’on est en train de mettre, non seulement dans la sélection des données mais aussi de l’annotation.
Dans l’apprentissage machine, tout le monde utilise à peu près les mêmes outils à l’heure actuelle. Quand j’ai fait ma thèse, j’ai codé un système particulier et après j’ai vérifié qu’il n’était pas bugé, qu’il n’y avait pas de problème en le comparant à d’autres, etc., mais j’ai fait complètement le système. À l’heure actuelle mes étudiants prennent les librairies qui sont en général celles des GAFA – on a quelques librairies en libre quand même – pour créer leurs systèmes. Donc c’est un jeu de puzzle qu’on assemble et toute l’expertise va être quand même beaucoup encore sur le choix de ces données. Toute l’intelligence que l’on mettait dans un système expert en disant « voilà les règles des experts pour essayer de reconnaître ça », là on met cette intelligence dans le choix des données et dans leurs annotations.
Comment on procède ? D’abord il faut discuter avec les personnes qui ont intérêt à utiliser un outil, quels types d’annotations elles veulent récupérer et pourquoi, et travailler sur ces annotations. Une fois qu’on a compris à peu près quelle est l’enveloppe voulue, à ce moment-là il faut se poser la question d’annoter, il faut annoter à plusieurs comme le disait Carole tout à l’heure ; à des moments on a eu 15 personnes qui annotaient en parallèle la même chose. On va essayer de regarder à partir de combien de personnes on arrive, finalement, à une annotation qui va être la même et on voit souvent qu’à partir d’une dizaine de personnes on arrive à peu près à converger.
Ce que j’avais fait à un moment donné, qui me paraissait intéressant, mais sans l’avoir développé plus et je pense que je vais encadrer des thèses bientôt, ce sera l’occasion d’aller jouer sur ces terrains-là, c’est travailler sur le pluri-labels. C’est-à-dire que vous avez des perceptions différentes liées non seulement à la difficulté du contexte dans lequel on vous demande de juger mais par rapport à ce que vous êtes, vous. Est-ce qu’il faut, finalement, faire rentrer tout le monde dans le même moule ou est-ce que la complexité des regards qui vont peut-être dire plutôt là c’est colère et là non, pour moi c’est neutre, et pour moi ça serait, ou plus fin que ça, est-ce qu’il faut pas prendre en compte différents regards et en faire ce que j’avais fait à un moment donné un vecteur, finalement, d’annotations, et avec ces vecteurs travailler sur un univers un peu plus riche, multi-facettes, autour de différentes perceptions humaines de l’objet qu’on cherche à modéliser.

Carole Lailler : Typiquement quand on cherche, on l’a fait avec Laurence, je le fais encore aujourd’hui dans des projets, à construire un guide d’annotation, les réunions d’annotation ne doivent pas être l’occasion d’une harmonisation-lissage parce que celui qui a la force de persuasion la plus forte par la parole va convaincre son petit voisin qu’il s’est trompé alors que parfois c’est juste parce que dans l’entourage, sur de la perception vocale par exemple j’ai eu le cas récemment, l’annotateur qui n’était pas forcément en accord avec ses petits camarades s’est vite rendu compte que dans son monde environnant, il n’entendait pas de voix jeunes, c’est ainsi, et qu’il avait donc une perception un petit peu différente, peut-être plus fantasmée, du moins différente. On n'a pas été dans un lissage où finalement on enlève ton label et on garde celui des autres, on a été davantage sur une réflexion de critères objectivables tant que faire se peut, même si c’est délicat, et dans cette réflexion, comme le dit Laurence, de multi-labels où l’idée ça va être d’avoir des intervalles de consensus plus qu’un label posé, certifié.

Jean-Luc Marini : Très bien, C’est très clair.
On pense souvent à de grands corpus. Un grand corpus c’est quoi en termes de taille ? C’est une centaine d’heures, c’est 500 heures, ce sont des milliers d’heures ?

Carole Lailler : Ça dépend de ce que tu veux faire, je sais que c’est une réponse très prudente et j’entends bien qu’elle le soit, mais c’est vrai que pour faire de la transcription de la parole ou de la reconnaissance en émotions – et Laurence a parlé tout à l’heure d’algorithmes de classification – est-ce que j’ai 22 labels, 22 thématiques ou 10 émotions, ou est-ce que j’en ai 4 ? Je ne suis pas sur la même répartition, la même nécessité d’apprentissage. C’est encore une fois très lié à ce que l’on veut obtenir en sortie et ce que l’on souhaite faire. C’est vrai que plus on a de données plus on est ravi, ne serait-ce que pour cet apprentissage de la diversité, des frontières, des voix ; Laurence parlait de la difficulté des voix jeunes qui ne sont pas encore, on l’avait dit dans un précédent Lab Pod, arrêtées physiologiquement, donc forcément elles sont d’une inventivité folle, ce qui est difficile à caler et à apprendre pour un système.

Jean-Luc Marini : En fait, il faut pouvoir tester, voir si effectivement c’est suffisant au regard des objectifs qu’on a définis et éventuellement retravailler le corpus pour essayer de l’enrichir si ce n’est pas le cas ?

Carole Lailler : Tout à fait. Il y a une dimension itérative et c’est pour ça que la semaine dernière je te disais que je n’aimais pas l’évaluation couperet, guillotine, et que je préférais quand les évaluations avaient l’intelligence d’accompagner le système et les processus parce qu’effectivement il y a cette nécessité d’avoir un œil sur le système comme on a un œil sur le lait quand il est sur le feu, d’une certaine façon.

Jean-Luc Marini : On parlait tout à l’heure d’émotions combinées. Comment est-ce qu’on procède en la matière ?

Laurence Devillers : Pour revenir quand même sur la taille des corpus, j’avais plutôt dit 1000 heures, c’est-à-dire que quand on parle de grand corpus c’est à ce niveau-là ; à partir d’une centaine d’heures on espère avoir des choses déjà intéressantes. Ce dont il faut se rendre se rendre compte c’est qu’à part les GAFA, les géants américains ou peut être quelques entreprises mais très peu, c’est difficile en ce moment d’avoir énormément de données, donc le monde de la recherche se tourne vers le small data, c’est-à-dire, en fait, qu’est-ce qu’on peut faire avec peu de données.

Jean-Luc Marini : C’est aussi un axe important aujourd’hui.

Laurence Devillers : Qu’est-ce qu’on peut faire avec peu de données ? Eh bien on peut en synthétiser d’autres qui ressemblent, donc on joue beaucoup sur les synthétiseurs avec des gammes, avec ces espèces de réseaux de neurones adversarial1 aussi ou alors avec une modélisation du conduit vocal et en essayant de modifier la parole de quelqu’un pour le faire passer d’un homme à une femme. Voilà ! On peut enrichir artificiellement avec des stimuli vocaux qu’on crée, donc ça va créer du bruit autour et un peu de diversité.

Carole Lailler : On peut dégrader une voix de studio enregistrée sur un joli plateau en faisant croire que c’est du téléphone par exemple.

Laurence Devillers : Ça c’est facile.

Carole Lailler : Soyons positifs. Donnons des choses un peu concrètes cette fois-ci.

Laurence Devillers : L’autre chose qu’on essaie aussi de faire c’est d’apprendre à la volée, notamment sur Internet en regardant les trucs de YouTube, etc., ou des films, mais c’est compliqué parce qu’il y a énormément de facteurs qu’il faudrait pouvoir trier et qu’on n’a pas des systèmes qui sont aussi intelligents que ça pour aller sélectionner des données. Ensuite, quand le robot entend quelqu’un qui parle, on pourrait aussi avoir des processus adaptatifs. C’est pareil, il faut les contrôler, sinon on risque d’avoir des systèmes qui vont diverger vers d’autres objectifs que ceux qu’on leur a donnés au début et qui seront intenables. Tout ça n’est pas mature.
Je dirais que l’utilisation de peu de données et d’une intelligence adaptative, c’est sûrement l’avenir puisqu’on n’aura jamais assez de données pour beaucoup et puis ça sera toujours très onéreux de les annoter, parce que, évidemment, on ne fait pas annoter par 15 personnes, en général dans les papiers on demande qu’il y en ait au moins deux, au mieux trois, rarement au-delà. L’autre chose aussi c’est que les annotateurs, en tout cas si on regarde les papiers de chercheurs, sont souvent des étudiants ; ils ont le même âge, ce sont trois garçons puisqu’on est dans le monde de l’informatique où on a peu de jeunes filles qui viennent faire des thèses ou des stages. On a donc une vision du monde qui est vu par quelqu’un qui a 22 ans, qui est masculin, qui a tel profil, donc ce n’est pas non plus la vision du monde des émotions entre quelqu’un qui…

Carole Lailler : Il faut qu’on échange nos annotateurs, Laurence, parce que moi j’ai le problème inverse, c’est-à-dire que les garçons sont d’accord pour faire un peu de dev, par contre ils laissent les annotations aux filles.

Laurence Devillers : On aurait pu dire que c’était l’inverse, mais c’est la même chose, il y a une discrimination c’est tout ce que je voulais dire, c’est-à-dire qu’on a un point de vue et pas forcément un point de vue riche. Quand j’avais commencé à faire des annotations, je m’étais dit qu’il fallait justement avoir des annotateurs masculins, féminins et de différents âges parce qu’au moins on avait une impression différente et on pouvait construire ces vecteurs multi-labels, multi-étiquettes, de façon plus riche.
Maintenant comment on fait pour les exploiter ? Eh bien il y a différentes stratégies que je ne vais peut-être pas toutes décrire, en tout cas ce sont des pistes de recherche pour l’instant, je ne pense pas qu’il y ait beaucoup de systèmes industriels qui utilisent du multi-label.

Carole Lailler : Non, mais ça commence pour justement les problématiques pragmatico-économiques que tu évoques, c’est-à-dire que la constitution des corpus a un coût, leur durée de vie aussi. Il y a la réalité du RGPD [Réglement général de protection des données] qui commence quand même à bien être intégrée, y compris dans les entreprises, donc cette volonté d’essayer de répondre à une problématique clairement circonscrite avec ce que l’on a, en mettant un peu de soin et d’attention à la préparation des données pour ne pas partir sur quelque chose de déceptive [trompeur, NdT], et un POC [] qui n’est jamais poursuivi parce que totalement décorrélé de la réalité, comme tu le disais tout à l’heure.

Laurence Devillers : Oui. Ça devient de plus en plus prégnant et important, c’est comment on donne des guides de bonne pratique, comment on mesure qu’un corpus n’est pas équitable, comment on mesure que sur le long terme vous avez une machine qui vous influence. À priori, dans le dialogue, on influence toujours, mais est-ce que c’est à tel point que ça en devient problématique ou est-ce que c’est juste normal ? Toutes ces questions autour de ce que j’appelle l’éthique, en fait, le respect de l’autre dans les choix qui sont faits par les machines ou les prédictions qui sont données par les systèmes de reconnaissance des formes sont à mon avis des choses qu’on va construire là, bientôt, et avec lesquelles il faudra jouer dans l’industrie. J’ai travaillé, par exemple, avec le Hub France IA2 sur le rapport qui a été produit par l’Europe, on a fait travailler une dizaine d’entreprises, que ce soit des grands groupes ou des startups – il y avait Dream Quark, il y avait aussi la SNCF ou la Société Générale pour vous donner des exemples – donc on a travaillé sur la faisabilité dans un monde pragmatique, comme tu dis, c’est-à-dire comment on fait pour passer des concepts de respect des droits de l’homme à quelque chose que je peux mettre en place comme mesure pour vérifier que mon système se comporte correctement. Il y a eu beaucoup de questions pour lesquelles on a demandé aux industriels : « Seriez-vous capables de faire quelque chose de cet ordre-là ? Pensez-vous que c’est tellement onéreux que vous le ferez pas ? ». En fait, essayer de comprendre la difficulté de la mise en place de ce genre de mesure.
Certes, ce sont des sujets qui vont arriver partout, ils arrivent aussi dans les projets qu’on est en train de monter, sur tous ces objectifs qui sont quand même de nouveaux systèmes avec de nouveaux usages. Et maintenant tous les projets européens insistent énormément : l’éthique ce n’est plus seulement les données, c’est finalement comment le système se comporte, comment il est évalué, audité, et est-ce que c’est fait dans un cadre suffisamment étudié, pas juste une vitrine.

Jean-Luc Marini : Tout à fait. Ce qui m’amène d’ailleurs aussi à poser la question de l’évaluation et notamment l’évaluation des performances : comment est-ce qu’on évalue les performances d’un système de reconnaissance d’émotions ?

Laurence Devillers : Normalement, dans une approche classique, pour évaluer le système on va prendre une partie de notre corpus de données pour faire de l’apprentissage, une deuxième partie pour faire du développement c’est-à-dire, en fait, savoir arrêter l’apprentissage et dire j’ai obtenu un modèle assez générique et pouvoir le tester sur une troisième partie. Donc j’ai trois parties : apprentissage, développement, test ; je teste sur la dernière partie. Ça c’est un protocole.
J’en ai un autre qui va être de faire, par exemple, dix tranches : je sépare mon corpus en dix parties et j’en utilise neuf pour l’apprentissage, je teste sur la dixième et puis j’échange, j’en prends neuf autres, je teste sur la dixième, comme ça j’essaie de tester tout mon corpus.
Une autre façon de faire c’est de regarder locuteur par locuteur pour que ça soit indépendant du locuteur. On met quelques locuteurs à part en test, on fait de l’apprentissage sur d’autres locuteurs et on va tester ceux-là et de la même façon on va jouer en échangeant les locuteurs qui sont en test pour avoir une moyenne des performances. Ça, ça nous permet d’être plus robustes, en fait, que le fait d’avoir juste un test, d’accord ?
J´irais encore plus loin. J’ai essayé de pousser à faire du cross corpus c’est-à-dire que j’ai un modèle que j’ai obtenu sur un corpus de données pour une tâche particulière, puis-je utiliser le même modèle sur une autre tâche où j’ai le même type d’émotions, par exemple de la joie, de la colère, des choses assez simples. Je vais aller chercher.
C’est intéressant de voir comment on peut passer d’une tâche à une autre, après avec toute la difficulté de prise de son, c’est-à-dire qu’il faut rester dans un environnement où la prise de son est similaire, sinon, là aussi, il faut faire un filtre. Par exemple, si on a une interaction avec un robot et ensuite on veut utiliser le même modèle pour passer au téléphone, certes là je pourrais parser un filtre pour arriver à ne prendre dans mon corpus que les fréquences jusqu’à 4000 hertz qui va être la bande passante au téléphone.

Carole Lailler : Ce que dit très bien Laurence, c’est qu’il va falloir évaluer, mais évaluer un élément et pas, quelque part, se laisser brouiller, puisqu’on parle d’ondes, par d’autres éléments qui viendraient mettre les travaux en échec alors qu’ils n’en sont pas finalement la source première, la cause première.

Jean-Luc Marini : Tout à fait. Vous qui êtes, je dirais, au fait de ce qui se passe un peu dans les laboratoires à un niveau déjà français, européen et international, comment évolue la recherche en matière de reconnaissance automatique d’émotions ?

Laurence Devillers : Il y a beaucoup de groupes. Quand j’ai commencé à travailler sur ce sujet en 2000, en France on devait être le seul groupe en détection des émotions dans l’audio. Sur la parole, sur la reconnaissance de la parole, il y a, en France, plusieurs sites qui sont reconnus, par exemple au Mans, à Avignon il y a un laboratoire qui s’appelle le LIA [Laboratoire d'Informatique d'Avignon], à l’INRIA, dans l’Est de la France, à Télécom. II y a plusieurs sites qui commencent tous à s’intéresser à ça ; c’est devenu un sujet qui a énormément attiré de monde.
On a vu aussi fleurir des compétitions dans les conférences, compétitions menées par des gens que je connais bien, ce sont des gens très bien, mais je suis contre ce genre de compétition qui laissent à penser que le domaine est suffisamment mature. En fait c’est faux. Si vous regardez les résultats de ces compétitions, on est souvent avec des 40 % d’erreurs ou 30 % d’erreurs, comme je disais tout à l’heure, ce qui n'est pas suffisant pour monter des vrais systèmes. Donc la détection de la personnalité dans l’audio ou des émotions, c’est très délicat.
Une des expérimentations que j’avais faite qui montrait vraiment bien cela et qui montrait aussi le fait dont on a parlé toutes les deux qui est que les émotions sont multimodales, par essence, c’était en fait d’avoir fait une prise de corpus multimodal sur des interviews qu’on faisait avec des étudiants sur le stress. On les mettait dans des situations qui les stressait et il y avait des captures audio, visage, profondeur de mouvement ; ils étaient sur une plate-forme de force, ils avaient une ceinture pour calculer le rythme cardiaque, ils avaient une autre capture de la conductance de la peau et d’autres facteurs physiologiques ; il y avait aussi des gestes qu’on pouvait repérer et, évidemment, on pouvait aussi se servir de questionnaires en psychologie pour essayer de comprendre dans quel état ils étaient. Donc on était sur du multimodal avec des questionnaires de psychologie très avancés sur la personnalité aussi pour essayer de détecter quel était le ground truth, c’est ça le Graal, où est la vérité, en gros. Eh bien on a pu montrer qu’il n’y avait pas de vérité sur l’un ou l’autre de ces canaux, il y avait une vérité différente suivant les individus. Par exemple, les individus très sportifs savent bien réguler leur rythme cardiaque, ils seront moins à même de tomber dans les pommes devant une situation anxiogène ou je sais pas quoi que d’autres. Nous sommes des animaux à sang chaud et très différents, en fait, vis-à-vis de ça.
Le marqueur le plus fiable pour le stress c’est encore un test sur la salive. On va effectivement trouver dans ce test sur la salive des facteurs qui sont assez objectifs.
Pour le reste, je dirais que c’est extrêmement délicat de ne prendre que la voix ou ne prendre que l’image ou ne prendre que les gestes, parce que c’est une combinaison de tout cela et, encore une fois, si on avait à catégoriser vraiment, il y a plusieurs groupes différents de gens qui réagissent à certains stimuli et d’autres qui ne réagissent pas. Donc il est extrêmement difficile, je pense, de trouver quelque chose de très fiable. Il faut être très malin dans la façon de construire les systèmes pour extraire des informations de comportement, donc il faut être très précis en fait sur ce qu’on veut atteindre.

Carole Lailler : La clé c’est ça, c’est ce qu’on veut au final. On voit quand même bien, en dehors de l’expérimentation en labo, la difficulté d’un outil qui nécessite un prélèvement de salive en amont et en aval d’une situation, effectivement. Cette idée de calibrer ce que l’on cherche à faire en restant humble, pour le coup travailler avec beaucoup d’humilité, c'est réellement un point d’ancrage à bien avoir en tête.

Jean-Luc Marini : C’est clair. Pour terminer sur une note un peu plus ludique, je crois, Laurence, que vous avez beaucoup travaillé sur des robots humanoïdes, des agents conversationnels capables de détecter des émotions chez les êtres humains que nous sommes. Je crois que vous leur avez même consacré un livre. Est-ce qu’un robot dit émotionnel peut nous donner l’illusion qu’il ressent des émotions ?

Laurence Devillers : C’est effectivement une très bonne question. Merci d’avoir parlé de ce livre, Les robots émotionnels, que j’ai sous-titré Santé, surveillance, sexualité et l’éthique dans tout ça. Les robots n’ont pas d’émotions, pas de sentiments, pas d’hormones de désir ou de plaisir, pas d’intentions propres, je pourrais continuer, pas de conscience, etc., mais on leur en prête. Donc ils sont capables d’imiter sans ressentir, de parler sans comprendre, de raisonner sans conscience. Par contre, nous sommes tout à fait, dans différentes situations, capables de les humaniser. C’est donc cet anthropomorphisme, c’est-à-dire cette projection des capacités humaines qu’on fait sur les machines, qui pose problème et non. Disons qu’il faut comprendre parce que derrière il pourrait y avoir des risques de manipulation de ces machines, on prendrait plus soin de la machine que des êtres humains à côté de nous parce que la machine serait toujours bienveillante et toujours de notre avis ; on deviendrait dépendants affectivement, on s’isolerait des humains, on perdrait une certaine liberté parce que ce serait la machine qui déciderait pour nous et puis, surtout, ça va amplifier les stéréotypes.
Comme je l’ai dit tout l’heure, il y a 80 % des informaticiens qui sont des garçons, il y a 80 % des artefacts qui ont des voix, des noms féminins – Alexia, Sofia – quand ce ne sont pas des robots humanoïdes, comme vous le dites, qui sont donc très féminins. On en fait des assistants serviles, des robots compagnons ou des robots sexuels, mais cette représentation de la femme à travers toutes ces machines, agents conversationnels ou robots, est « questionnante » parce que c’est meta. Chaque fois que j’ai rencontré des industriels qui parlaient des systèmes qu’ils mettaient en place ils me disaient : « J’ai fait des tests – Ah, très bien, vous avez fait des tests » et je respectais tout à fait ça. Ils avaient effectivement fait des tests tout à fait honnêtes, fiables, etc. Les hommes préféraient des voix de femmes la majorité du temps, surtout quand elles sont là pour prendre soin, donner des renseignements, etc. Quand il s’agit d’un médecin, on préfère une voix d’homme, d’où le stéréotype. Et de l’autre côté, quand on demandait aux femmes : « Vous préférez quoi ? », elles préféraient aussi des voix de femmes. Vous voyez ! Donc si on garde en tête que les préférences vont toujours aller vers des voix de femmes, nous serions environnés, et c’est un peu la petite fiction que j’écris au début de ce livre, d’objets féminisés qui nous répondent, que ce soit la voiture, votre montre, le frigo pourquoi pas, l’agent conversationnel robotique qui s’occupe de la maison, votre téléphone et tout un tas d’objets qui synchronisent votre vie, qui vous parlent avec une voix féminine et qui vont finalement décider pour vous.
La petite scène qui introduit mon livre c’est complètement l’idée de montrer que pour vous aider avec bienveillance, pour vous assurer une meilleure santé, je peux aussi vous faire vivre un enfer qui est que vous ne décidez plus rien du tout pour vous. La machine vous prend rendez-vous pour le médecin, décidant, elle, que vous avez besoin de ça ; l’assurance augmente ses prix dès que vous prenez un verre d’alcool, etc.

Jean-Luc Marini : C’est très clair !

Laurence Devillers : On se fait une idée des robots « émotionnels », émotionnels entre guillemets, les émotions dans les robots n’existent pas.
Par contre, on va de plus en plus loin dans l’imitation de l’humain à travers ces machines, dans la ressemblance à l’humain, donc il peut y avoir une confusion. C’est en ça qu’il faut se questionner : faut-il aller aux frontières de l’humain dans la ressemblance ?
Et pour l’intériorité qui n’existe pas, il n’y a pas de corps, il y a pas de viscères et il n’y a pas de conatus comme en parle très bien Spinoza, donc il n’y a pas d’étincelle de vie, il n’y a pas de désir, eh bien il y a quand même des chercheurs – j’en ai rencontré notamment au Japon, en Australie – et je pense qu’il y a plusieurs laboratoires qui s’intéressent à ça, à mettre une espèce d’homéostasie à l’intérieur de ces machines, c’est-à-dire des façons de régler le plaisir, la douleur, les émotions qui nous, humains, nous faut réagir, nous font nous enthousiasmer, nous font créer, nous font avoir ces intuitions. Comment, dans une machine, pourrait-on simuler, puisqu’il n’y a pas, encore une fois, de viscères, il n’y a pas de vivant, avec juste des programmes, les différentes notions de plaisir, de douleur, pour que la machine ait des intentions ?
Plus on s’approche, en fait, des comportements de l’humain, plus on tend à brouiller ces frontières et plus il est nécessaire d’apprendre comment va interagir avec ces machines demain.

Carole Lailler : Ça devient angoissant.

Jean-Luc Marini : C’est tout à fait clair.
Merci beaucoup à vous deux pour cet échange qui, je l’espère, aura passionné nos auditeurs.

Laurence Devillers : Ça ne doit pas être si angoissant que ça, il faut rester raisonnable. Ils sont plutôt sympa quand on travaille avec.

Jean-Luc Marini : Exactement. Je crois d’ailleurs, Laurence, que vous avez publié dernièrement un autre ouvrage qui, pour le coup, est sur un autre sujet, même si on est toujours assez proche, qui est sur la souveraineté numérique dans l’après-crise.

Laurence Devillers : Oui.

Jean-Luc Marini : Vous pouvez nous en dire un petit peu plus sur le contenu de cet ouvrage ?

Laurence Devillers : En fait, pendant la crise, on s’est quand même rendu compte qu’on était dépendants des acteurs chinois pour les médicaments, les masques et tout un tas de choses qu’on ne crée plus ; il n’y a plus d’industries en France et en Europe pour produire ces différents produits dont on a besoin. Eh bien, de la même façon, il faut qu’on se questionne sur la souveraineté et la gouvernance de l’IA puisque on s’est rendu compte, pendant la pandémie, qu’on avait tous besoin d’être connectés, que finalement la télémédecine a fait un bond incroyable. Peut-être que si on avait eu des robots pour désinfecter des endroits, on aurait évité à des gens d’être contaminés. Cette distance que permet d’avoir la machine est très importante. On s’est donc rendu compte de l’intérêt de ces systèmes et on a vu arriver très vite des solutions, Zoom, pour toute l’interaction qu’on a sous différents systèmes de télévision et que c’était avant tout les GAFA qui avaient ces objets. De la même façon, Facebook a, par exemple, proposé des iPad dans les Ehpad, dans les maisons de retraite.
Donc ils ont mis le pied dans la porte dans beaucoup de secteurs, en santé, en éducation, pour l’assistance aux personnes âgées, et d’autres encore, donc il est nécessaire que l’on prenne réellement conscience qu’on n’est pas maîtres, en ce moment, des décisions sur le numérique. On l’a très bien vu avec le StopCovid ; peu importe si vous êtes pour ou contre le StopCovid qui était un algorithme de traçage. Il y a quand même une un paradoxe énorme ; on met beaucoup nos données sur les réseaux sociaux – Instagram ou autres – sans se préoccuper de la partie de vie privée ou d’intimité que l’on met sur le réseau. Et là on demandait à la population de s’inscrire sur un système pour essayer, avec une pseudonymisation de chacun, c’est-à-dire sans envoyer le numéro de téléphone de chacun, en étant protégé, en envoyant ses données sur un serveur qui aurait pu les utiliser pour mieux comprendre comment la pandémie se développait ou, au contraire heureusement, était plus restreinte. Mais là on a vu un tollé sur tous les médias disant « que fait-on de nos libertés ? », parce que c’était quelque chose que le ministère de la Santé allait gérer. Les serveurs étaient chez Thalès et on a eu peur de cette gouvernance, finalement de notre démocratie, alors qu’on n’a pas peur de mettre toutes nos données sur tous les agents que sont les GAFA, Google, Apple, Facebook, Amazon, Microsoft, IBM. Donc à un moment donné il faut se poser la question : pourquoi ?

Jean-Luc Marini : Vous avez tout à fait raison. C’est d’ailleurs un sujet d’actualité dont on parle aussi dans un autre domaine qui est celui de la Défense, de la sécurité, où effectivement la souveraineté numérique pose question.
Écoutez, merci beaucoup Laurence pour l’ensemble de ces explications.

Laurence Devillers : Merci.

Jean-Luc Marini : Merci Carole d’avoir accepté cet échange à trois voix et puis à très bientôt pour un prochain Lab Pod. Bonne soirée à vous.

Carole Lailler : Merci.

Laurence Devillers : Merci Carole. Merci à vous. À bientôt.

Carole Lailler : Merci à toi.

Jean-Luc Marini : À bientôt.

La reconnaissance d’émotions dans la voix – Partie 1

mar, 08/18/2020 - 17:23


Titre : La reconnaissance d’émotions dans la voix – Partie 1
Intervenant·e·s : Laurence Devillers - Carole Lailler - Jean-Luc Marini
Lieu : Lab Pod, Axys Consultants
Date : juillet 2020
Durée : 23 min
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration : Modulation-de-frequence, Wikimedia Commoons - Domaine public
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Jean-Luc Marini : Bonjour Carole et bienvenue pour ce nouveau Lab Pod.

Carole Lailler : Bonjour Jean-Luc, ravie de te voir sous la pluie orageuse aujourd’hui.

Jean-Luc Marini : Aujourd’hui nous ne sommes pas seuls, car nous avons le plaisir d’accueillir Laurence Devillers qui est professeure en intelligence artificielle et chercheuse au LIMSI [Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur] pour parler ensemble de la reconnaissance d’émotions dans la voix.
Bonjour Laurence. Vous allez bien ?

Laurence Devillers : Bonjour Jean-Luc. Très bien. Merci. Bonjour Carole.

Carole Lailler : Bonjour Laurence, ravie de te retrouver.

Jean-Luc Marini : Laurence, avant d’entrer dans le vif du sujet, vous serait-il possible de vous présenter et de rappeler aux auditeurs qui ne vous connaissent pas encore quel est votre domaine de recherche au LIMSI ?

Laurence Devillers : Je vais me présenter en disant aussi ce que je fais.
Je suis professeure en informatique à la Sorbonne sur des domaines autour de la langue. Je parle aussi beaucoup d’éthique, des systèmes automatiques et d’IA. J’ai une chaire en IA au CNRS qui s’appelle HUMAAINE, HUman-MAchine on Affective INteraction & Ethics. L’idée c’est de travailler sur l’interaction humain-machine, que ce soit un robot ou un agent conversationnel ou toute forme de système capable de converser avec les humains. Je travaille aussi avec des robots, comme j’ai dit, dans l’idée d’aider par exemple dans des situations de vulnérabilité, donc des personnes âgées, ou aussi sur l’interaction avec des enfants pour regarder quels sont les comportements des enfants devant ces machines.
Mon sujet d’expertise maintenant depuis les années 2000 c’est principalement l’affective computing, qu’on appelle l’informatique émotionnelle, qui comprend trois grands domaines : reconnaître les émotions, faire un traitement conversationnel, trouver une stratégie en prenant en compte ces informations et puis générer et synthétiser des stimuli par la voix, le visage, les gestes, qui soient émotionnels.

Jean-Luc Marini : C’est parfait. C’est très clair Laurence, et ce sont des domaines qui intéressent beaucoup nos auditeurs.
Si vous le voulez bien, je vous propose de rentrer dans le vif du sujet. Une première question c’est tout bêtement qu’est-ce qu’une émotion ? Laurence, Carole ? Laurence peut-être.

Laurence Devillers : Je peux répondre à cette question. C’est un sujet délicat. Il y a énormément de papiers dont c’est le titre, qu’est-ce qu’une émotion ?, avec finalement des chercheurs de différents champs, différentes disciplines, qui ne vont pas avoir tous les mêmes définitions, c’est la première complexité. Je dirais qu’on confond souvent dans le langage, en tout cas en informatique, émotion avec affect qui est un terme qu’on utilise plutôt en psychologie. Les affects regroupent les émotions, les humeurs, les dispositions affectives, en fait beaucoup de réactions qui sont différentes. Klaus Scherer est quelqu’un qui en a très bien parlé ; il était professeur en psychologie à l’Université de Genève, UniGe. Il s’est beaucoup intéressé pendant toute sa carrière aux émotions, il avait classé ces différents affects avec différentes dimensions. Par exemple, quelle est la plus rapide et la plus courte ? Eh bien c’est par exemple l’émotion, quand vous réagissez à quelque chose en peu de temps, c’est précis, il y a un événement qui suscite cette émotion et elle va durer peu de temps. Si je pense maintenant par exemple à l’humeur, pour différencier, peut-être qu’il n'y a pas un événement particulier qui va susciter votre humeur, elle risque de durer peut-être toute la journée. Elle est donc très différente de par son amplitude, sa durée, de l’émotion.
Pour chaque catégorie il avait fourni un tableau sur cinq dimensions différentes, proposant de classifier ces différentes réactions affectives que la machine ne sait absolument pas, en ce moment, catégoriser de la même façon.

Jean-Luc Marini : C’est clair. Carole, tu veux peut-être ajouter quelque chose par rapport à ce que vient de nous expliquer Laurence ?

Carole Lailler : Avec plaisir.
Effectivement, elle a très bien dit la nécessité de distinguer une émotion, une acmé, quelque chose qui se passe et qui peut se traduire aussi bien par votre discours que votre posture physique ou même l’absence de discours, et un état d’esprit : différencier la tristesse d’un pic de tristesse, d’une mélancolie qui vous prend le dimanche soir au seuil de cette nouvelle semaine qui arrive. Effectivement on est dans la nécessité d’une définition et de rester pragmatique, de rester dans ce pic d’activité qui peut être appréhendé dans le langage par exemple.

Jean-Luc Marini : D’accord.

Laurence Devillers : Je dirais aussi quelque chose qui est quand même important, c’est que la machine ne sait pas les détecter les émotions, elle ne sait détecter que l’expression de nos émotions puisque nos émotions sont internes, elles se rapportent plus aux sentiments qu’on ressent ou qu’on interprète, et pas, en fait, à ce qu’on est forcément en train d’exprimer ; elles sont cachées. Ce que la machine va détecter c’est finalement ce qu’on veut bien laisser apparaître ou qu’on laisse apparaître malgré nous.

Carole Lailler : Le « malgré nous » est important. Tu te souviens bien, Laurence, de la petite anecdote que tu pourras commenter. Laurence mène de nombreuses expérimentations parfois avec des petits robots connus, pensez à certaines pubs télévisées, et j’ai été amenée à l’occasion d’une visite sur un tout autre projet à entrer, pour le jeu, dans cette expérimentation. Comme Laurence en était encore aux balbutiements de l’expérimentation et que je n’étais pas du tout représentative de son corpus d’apprentissage, eh bien l’émotion détectée me concernant, parce que j’ai une voix qui se pose, parce que je parle vite et fort, était la colère, alors que c’était, pour reprendre une expression un peu célèbre, malgré lui aussi, « à l’insu de mon plein gré », si j’ose dire, puisque je n’étais pas du tout en colère et ravie de rendre visite à Laurence. Voilà !

Laurence Devillers : Tu as tout à fait raison de le noter et c’est principalement ce que j’essaie de dire maintenant, c’est qu’en fait ces systèmes ne sont absolument pas robustes. En ce moment les systèmes de détection des émotions faciales ou à travers les indices acoustiques, si je prends ces deux-là, mais c’est la même chose avec des indices physiologiques, n’apportent pas des solutions qui sont plus que 70 % de bonnes classifications dans les cas de contexte réel. En laboratoire on peut avoir moins lorsqu’on restreint le champ des possibles, mais, lorsqu’on se retrouve dans un contexte très spontané, on a souvent ces 30 % d’erreurs, ce qui n’est déjà pas si mal. La machine arrive à donner par exemple quatre émotions, à distinguer quatre émotions différentes, mais c’est absolument insuffisant pour un grand nombre de développements qu’on voit pourtant arriver en ce moment que ce soit pour parler de justice, de recrutement ou même en médecine.
J’ai tendance à penser, pour l’instant en tout cas, que si on ne rajoute pas du sens par rapport à ce qu’on fait actuellement qui est principalement lié à l’expressivité non-verbale, que ce soit dans la musique de la voix, les gestes ou le comportement facial, si on ne rajoute pas le sens du contexte dans lequel on est et le sens des mots qu’on vient de prononcer, en tout cas s’il y avait des mots, qu’on comprenne un peu plus le sens de ce qui est en train de se passer, on n’arrivera pas à des systèmes suffisamment robustes.
De la même façon, les émotions qu’on appelle la peur – par exemple la peur de perdre de l’argent, la peur de perdre sa vie, la peur pour quelqu’un – se manifestent de façons très différentes et surtout, toutes ces émotions sont très liées à l’individu, à sa personnalité. On parle d’idiosyncrasie, c’est lié à ce ressenti ; c’est lié aussi à sa culture, même à son enfance, au milieu dans lequel il vit, et c’est vrai que tous ces facteurs de variabilité additionnelle montrent toute la complexité de la détection automatique des émotions.

Jean-Luc Marini : Très bien. Du coup ça m’amène une question : pourquoi est-ce qu’on est amené à détecter l’expression de nos émotions ?, puisque j’ai bien compris qu’il fallait parler d’expression de nos émotions.

Laurence Devillers : Pourquoi ? On peut imaginer des applications dédiées à un individu, par exemple pour un suivi de pathologie, que ça soit une maladie comme la maladie de Parkinson ou que ça soit une dépression. Si on pouvait suivre la personne tout au long de la journée à travers l’exploitation de ses données audio ou comportementales pour savoir dans quel état elle se trouve, on serait plus à même de l’aider et de la soigner, par exemple pour modifier les médicaments qu’on donne ou bien pour affiner un diagnostic. C’est évident que quand on va chez son médecin, que ça soit un psychiatre, un psychologue ou un médecin généraliste, on y va au temps t et lorsqu’on a des crises dépressives ou des crises de différentes pathologies, ce n’est pas forcément au moment où on va voir son médecin, ça peut être dans le temps. C’est vrai que c’est important de comprendre comment le malade, finalement, réagit à différentes interactions autour de lui. Je pensais par exemple les troubles bipolaires qui sont une maladie liée aux émotions ; c’est ne pas maîtriser sa colère. C’est une maladie qui affecte beaucoup les familles parce que souvent la personne se met dans des colères noires quand elle est dans son intimité. Vous voyez ! Le médecin ne s’en rend pas forcément compte, donc après ce sont les dires des uns et des autres et ce n’est pas forcément facile d´aider la personne qui n’arrive pas à maîtriser ce type d’émotions.
Tout va se jouer si on sait contextualiser suffisamment et personnifier, c’est-à-dire qu’on a adapté le système à la voix de la personne. Sans cela c’est un peu magicien, donc on aura beaucoup de bêtises.

Carole Lailler : Dans ce que tu dis il y a aussi une notion d’historicité, de capture de la longueur des différents moments de la journée. Tu parlais de la prise de médicaments, ça peut être aussi la détection de la non-prise de médicaments et arrêter le problème ou aider le patient avant qu’on arrive à un paroxysme où les conséquences et pour la famille et pour l’individu sont terribles.

Laurence Devillers : Donc on voit que c’est important d’essayer de faire ça. C’est important aussi de le faire pour surveiller les différents objets qui viennent d’autres mondes, peut-être d’autres cultures, et pour lesquels il faut être vigilant. On n’a pas tous les mêmes règles et normes, je pense qu’on l’a vu tous vu en Europe avec la GDPR1 [General Data Protection Regulation]. On a cette attention à la vie privée en Europe qu’on n’a pas forcément en Chine, qu’on n’a pas forcément de la même façon aux États-Unis, donc il est faut être vigilant suivant ce qu’on veut mettre en place comme outils autour de nous pour soigner les gens les plus âgés, pour éduquer les enfants, etc.
On a besoin, en fait, de construire des environnements qui permettent d’auditer les systèmes, de les évaluer et de vérifier sur le long terme comment ils vont aussi modifier nos comportements. Tout ce champ de recherche est actuellement très émergent et c’est bien qu’on commence à en prendre conscience. C’est bien aussi qu’on voie des lois arriver. Si je parle des premières personnes qui travaillent sur des lois autour des chatbots et des agents conversationnels ce sont les Américains qui, en Californie, ont sorti une loi pour dire « il ne faut pas faire une machine qui soit confusable, qu’on puisse confondre, en fait, la voix d’un humain et celle d’un artifice, d’une machine ». On devrait aussi adopter ce genre de lois.
Je sais que sur la reconnaissance faciale un grand nombre de chercheurs en affective computing, donc sur les émotions, sont en train de monter au créneau en disant que ce n’est pas assez fiable, ce n’est pas assez robuste pour qu’on puisse utiliser comme on commence à le faire en France aussi, pour le recrutement par exemple. Pour trier des dossiers d’étudiants, on va leur demander d’interagir verbalement avec un système, de répondre à des questions et sur leurs réponses on va aller chercher les inflexions de la voix, la fluidité, le rythme, mais aussi sur le langage : est-ce qu’il a une complexité de langage très importante ou pas ?, et juger à partir de ces différents facteurs, qui sont quand même très liés à sa personnalité, si on va regarder le CV de plus près ou pas. Donc je vous dis pas, si vous avez un enfant qui a un cheveu sur la langue ou qui a une petite modification de prononciation, il ne passera pas avec ce genre de système !

Jean-Luc Marini : Très clair, c’est très clair. Du coup une question qui me vient tout de suite à l’esprit, c’est comment est-ce qu’on détecte les émotions dans la voix ? Quels sont les systèmes qu’on met en place ?

Laurence Devillers : Bonne question. Bien sûr, vous avez raison.
Pour construire un système de détection d’émotions dans la voix ou de détection d’objets ou de détection de cancer dans une zone, ce sont les mêmes problématiques de reconnaissance des formes. C’est-à-dire qu’on va utiliser des algorithmes d’apprentissage, il y en a de plusieurs sortes, qui nécessitent, non pas comme dans les algorithmes qu’on utilisait précédemment de spécifier le problème, là on va chercher à nourrir un algorithme de connaissances à partir de données. Donc on doit collecter ces données et la plupart des systèmes actuels marchent sur des apprentissages dit supervisés, c’est-à-dire qu’il ne suffit pas de collecter par exemple des sons si je parle de détection d’émotions dans la voix, il faut aussi avoir étiqueté c’est-à-dire, en fait, annoté des segments d’audio en disant « là c’est de la tristesse, là c’est de la joie », ou les étiqueter avec des dimensions d’expressivité : ici c’est peut-être positif, ici c’est très actif.
Il y a différentes façons de procéder, en tout cas il est nécessaire d’avoir des données, de bien les choisir et d’avoir vérifié aussi l’annotation qui est présente. À partir de là, on utilise un grand nombre de différents outils. Les derniers outils en vogue que tout le monde connaît maintenant ce sont les outils de deep learning, d’apprentissage profond, qui sont des réseaux de neurones. Je les ai utilisés la première fois pour faire de la reconnaissance de la parole dans les années 92 pour ma thèse, et depuis ça marche. Il y avait déjà deux couches cachées et c’était déjà avec une espèce de récurrence temporelle, ça ressemble à l’ancêtre de ce qu’on utilise actuellement dans les meilleurs systèmes dits de deep learning. Mais surtout, le grand progrès qu’on a fait ce n’est pas au niveau des concepts qu’on manipule mais c’est au niveau de fulgurance des moyens de calcul qu’on a actuellement. Sinon ce sont les mêmes problématiques. Il faut bien choisir ses données et les équilibrer pour que ce ne soit pas discriminant. Vous imaginez un système où il n’y a que des voix d’hommes, eh bien on ne va pas reconnaître les voix de femmes.
C’est la même chose avec un système, c’est la majorité des systèmes actuels, de reconnaissance d’émotions dans la voix qui ne marchent pas sur les voix âgées ou des voix d’enfants, donc on a tout cette variabilité qui n’est pas prise en compte. Ils ne sont peut-être pas dans la cible, mais une voix âgée de 60 ans qui chercherait du travail ne passerait pas non plus. On va donc chercher des voix et standardiser. Or ces standardisations sont tout sauf ce qui est utile à mon avis actuellement, surtout si on pense à des systèmes qui marchent dans différentes cultures.
L’implication serait peut-être qu’on pourrait niveler la façon de se comporter et être devant un système qui a appris sur un corpus que l’on dit générique, pour que finalement la machine nous reconnaisse ou éviter d’être reconnu par la machine.
Ces systèmes apprennent et ensuite les modèles qui sont obtenus à partir d’un corpus de données, donc de certaines voix, sont utilisés pour qu’une voix inconnue qui est en train de dire « je ne suis pas content » [prononcé en imitant la colère, NdT] puisse être analysée de la même façon et que la machine prédise que c’est plutôt de la colère ou de la joie.
Comme l’a très bien dit tout à l’heure Carole, ce n’est pas toujours évident de reconnaître des stimuli dans différents contextes, surtout si on a pas assez de contextes qui rentrent en compte.

Carole Lailler : C’est ça aussi le problème du contexte et de ce qu’on accepte de prendre en compte, la préparation des données comme l’a si bien dit Laurence, que ce soit pour la transcription, mais, plus encore, sur l’annotation pour l’accord inter-annotateurs, pour que cette annotation ait du sens et ne soit pas non plus le fait d’une interprétation du « labellisateur » qui engendre donc un apprentissage pour le coup biaisé par ce regard. Donc vraiment un travail en amont sur la préparation des données et également en aval, voire en flux continu, d’évaluation pour être bien sûr qu’on reste dans un cœur d’apprentissage qui soit éthiquement maintenu, responsable et lié aux cas d’usage que l’on cherche à obtenir, avec pragmatisme évidemment.

Laurence Devillers : C’est compliqué. En plus les émotions, en tout cas dans ce que j’avais monté dans mon HDR [habilitation à diriger des recherches], sont souvent mélangées, c’est-à-dire qu’on n’a pas forcément conscience de ces aspects-là. J’avais traité des corpus dans des call centers, dans des centres d’appel. Les personnes pouvaient être à la fois tristes et soulagées par exemple. Dans dans des contextes particuliers d’urgence ou de santé, on a des réactions où on réagit face à quelque chose d’anxiogène qu’on est en train de vivre et, en même temps, on vient vous aider, donc il y a aussi dans la voix une tessiture liée à quelque chose de très positif où justement on pousse l’autre à venir nous aider donc en étant très reconnaissant. Ce mélange d’indices est très difficile à comprendre. Nous, humains, utilisons énormément de stratagèmes et avons l’habitude de nous adapter à tout ça, pour les machines c’est extrêmement difficile. Il n’y en a pas encore.

Carole Lailler : Il y a une réalité à comprendre qui est celle de l’interaction, c’est-à-dire qu’il y a cette volonté de se préserver et de présenter à l’autre sa meilleure face, son meilleur aspect, son meilleur jour, aussi bien dans le sourire ou dans les yeux brillants que l’on peut faire, que dans la tonalité de sa voix. Et en même temps, en fonction du type d’interaction, de la volonté d’aller asticoter l’autre ou au contraire de maintenir avec lui une communication réussie et apaisée, la volonté de lui proposer des choses ou de lui en interdire d’autres. Donc ce jeu de construction à deux qui avance, mais qui, de temps en temps, se permet de stagner, qui prend des chemins de traverse, c’est une réalité que nous possédons, nous, humains à des degrés différents et qu’il devient extrêmement complexe de faire apprendre à un système quel qu’il soit.

Laurence Devillers : Oui, principalement dans la communication quand même.

Jean-Luc Marini : Au niveau des indices pour discriminer les émotions, comment est-ce que vous procédez ? Est-ce qu’il y a des indices plus pertinents que les autres ou, je dirais, c’est vraiment selon les cas qu’il faut travailler ?

Carole Lailler : Le pitch des voyelles ! J’aime bien les voyelles en français.

Laurence Devillers : Il n’y a pas que les voyelles, il y a aussi des bruits à haute fréquence. Il y a beaucoup d’indices. On avait beaucoup travaillé avec Klaus Scherer et avec des collègues à l’international avec des corpus assez variables. J’avais justement mis des voix âgées pour que ce soit encore plus compliqué. En fait, pendant quinze ans le Graal a été de trouver le set d’indices les plus utiles, donc on a travaillé sur du cross corpus pour vérifier la robustesse de différents indices et essayer d’établir une liste minimale d’indices. On était arrivé à moins de 100 caractéristiques ; avec Klaus Scherer et d’autres gens, on a fait de belles publications là-dessus. Et puis sont arrivés en 2010 à nouveau les réseaux de neurones avec une puissance de calcul et de projection qu’on n’avait pas. C’est-à-dire qu’au lieu de donner des critères qu’on va pré-calculer avec tout un tas d’outils d’analyse du signal comme la fréquence fondamentale, les variabilités de la fréquence fondamentale ou les harmoniques sept moins l’harmonique trois, il y avait tout un tas de connaissances perceptives et de cas d’analyse du signal sur les données audio, au lieu de faire ça on est parti sur du brute force, c’est-à-dire partir directement du signal ou de sa représentation spectrographique pour essayer de détecter des émotions. C’est alors le deep learning multi-couches et les CNN [Convolutional Neural Networks] qu’on va utiliser, qui sont des façons de filtrer le signal, mais en partant du bas niveau, réellement du bas niveau sans à priori, sans l’à priori de ces calculs experts. On a pu montrer – c’est la dernière thèse que j’ai fait soutenir – qu’on avait les mêmes résultats avec un système qui est nourri en brute force, donc à partir du signal sans faire d’expertise para-linguistique, sans extraire les indices, et puis un système où on a cette première couche qui est une expertise quand même puisqu’on sait quels sont les meilleurs paramètres. Évidemment ils sont liés à la prosodie, c’est-à-dire la variation de l’énergie dans la voix, la variation du rythme, la variation de la fréquence fondamentale, du timbre de la voix, et puis aussi quelques indices de qualité vocale : vous chuintez, vous avez une particularité ou beaucoup d’hésitations aussi.

Donc on a des indices de tous ces différents niveaux qui sont utilisés normalement dans les systèmes à expertise. Mais depuis peu on va au-delà des performances de ces machines grâce à des outils qui utilisent brute force, c’est-à-dire le signal brut.

Jean-Luc Marini : À très bientôt pour un prochain Lab Pod. Bonne soirée à vous.

Carole Lailler : Merci.

Laurence Devillers : Merci Carole. Merci à vous. À bientôt.

Carole Lailler : Merci à toi.

La « souveraineté numérique », pour quoi faire ?

mar, 08/18/2020 - 12:55


Titre : La « souveraineté numérique », pour quoi faire ?
Intervenant·e·s : Laure de la Raudière - Tarik Krim - Bernard Benhamou - Divers auditeurs - Éric Delvaux
Lieu : Le téléphone sonne - France Inter
Date : 13 août 2020
Durée : 39 min
Écouter ou enregistrer le podcast
Site de présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Point d’interrogation bonhomme blanc 3D, Fotomelia - Creative Commons Deed CC0.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Comme une nouvelle guerre froide, la souveraineté numérique déchire la Chine et les USA. La France et l’Europe ont-elles une ambition dans ce domaine ?

Transcription

Éric Delvaux : Émission ce soir sur notre souveraineté numérique. Les enjeux sont si importants qu’ils génèrent une nouvelle forme de guerre entre la Chine et les États-Unis, guerre économique mais pas seulement, car la souveraineté numérique c’est aussi une question de sécurité de nos propres données, celles que nous confions allégrement aujourd’hui aux GAFAM américains.
La France et l’Europe sont-elles condamnées à rester numériquement dépendantes des puissances étrangères ? Et dans la perspective de la 5G et dans la perspective de la transition écologique quelles sont les autres voies numériques possibles et à quelles conditions ? C’est donc le thème du Téléphone sonne de ce soir

Voix off : Le téléphone sonne, 01 45 24 7000

Éric Delvaux : Avec trois invités ce soir pour nous éclairer.
Laure de la Raudière, vous êtes députée Agir d’Eure-et Loir, vous êtes aussi coprésidente du groupe d’étude de cybersécurité et souveraineté numérique à l’Assemblée nationale.
En studio Tariq Krim, entrepreneur et ancien vice-président du Conseil national du numérique1.
Également en studio Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique2.
Merci d’être venus ce soir à France Inter pour répondre aux auditeurs.

Bernard Benhamou : Merci à vous.

Tariq Krim : Merci à vous.

Éric Delvaux : La première question est pour vous Laure de la Raudière : de qui la France est-elle numériquement dépendante ?

Laure de la Raudière : On est principalement dépendants aujourd’hui des États-Unis. Ça peut changer, on pourra être aussi dépendants des Chinois pourquoi pas pour certains services, mais aujourd’hui nous dépendons massivement de ce qui s’appelle les GAFAM, Google, Amazon, Apple, Facebook, Microsoft qui sont des géants du numérique et on utilise leurs services quotidiennement.
La crise du covid nous a montré à quel point on était profondément dépendants du numérique. Je dirais heureusement même que le numérique était là. Le télétravail a été multiplié par 10, les téléconsultations en matière de santé par 100, le e-commerce par 2 et parallèlement aussi les cyberattaques ont été multipliées par 4.

Éric Delvaux : Tariq Krim, ce qui est en jeu c’est donc l’économie, on va le voir un peu plus tout à l’heure, ce sont aussi nos données personnelles avec quels risques, précisément, qu’elles soient confiées aux GAFAM ?

Tariq Krim : Ce qui est intéressant c’est qu’à chaque fois qu’on utilise son téléphone ou son ordinateur, ces plateformes collectent des données pour mieux nous connaître, pour ensuite nous servir de nouveaux produits, influencer nos comportements, nos achats. En fait, ces plateformes sont devenues de gigantesques réservoirs de données qui sont hébergés, hélas, aux États-Unis.

Éric Delvaux : Quand le gouvernement a choisi par exemple en France de confier l’hébergement de nos données de santé, donc nos secrets médicaux, à l’Américain Microsoft, ce qu’on appelle le Health Data Hub3, Bernard Benhamou on vous a entendu crier au loup en vous inquiétant de certaines dérives possibles. Quels types de dérives ?

Bernard Benhamou : De nombreuses dérives sont possibles à partir d’un projet de ce genre qui, au départ, est animé de bonnes intentions puisqu’il s’agit d’améliorer la santé au travers de nouvelles technologies, en particulier d’intelligence artificielle. L’idée est louable. La réalisation par un acteur américain de cette taille, avec ces ambitions-là sur le secteur, permet d’avoir toutes les inquiétudes sur le fait que cela puisse déboucher effectivement sur une appropriation de ces données, à la fois par des acteurs industriels – ce qui est déjà le cas manifestement –, mais aussi par des services de renseignement puisque les États-Unis ont des lois qui s’appliquent à toutes les sociétés où que soient localisées leurs données, y compris en Europe, si elles sont américaines. Donc par définition il y avait là un risque et on y est allé beaucoup trop vite. Je dirais que la crise covid a peut-être accéléré la chose. Effectivement je crois qu’il est temps, il est important de réfléchir parce que ce qui se joue là ce n’est pas une application de traçage comme StopCovid4, c’est le futur de notre système de santé sur les 10, 20 ou 30 ans qui viennent.

Éric Delvaux : Sur les abus aux États-Unis l’administration américaine avait envisagé d’imposer des tests de santé en entreprise en fonction des informations de santé de son personnel recueillies sur le Net, avec même des pénalités pour les employés ?

Bernard Benhamou : Oui, c’était même pire que ça puisqu’ils voulaient imposer, c’était une loi dite HR1313 que l’administration Trump a voulu passer, ils voulaient imposer des tests génétiques en entreprise, et ceux qui ne les auraient pas passés, ceux qui auraient refusé de se faire tester génétiquement, auraient dû payer entre 4000 et 5000 dollars par an. Heureusement la chose n’a pas pu se faire parce qu’il y a eu un changement de majorité à la Chambre qui a empêché que la loi progresse, mais il faut bien avoir en tête que ce genre de scénario, qui ressemble un peu à ce que font les Chinois avec le contrôle génétique de leur population et le contrôle des comportements de leur population avec ce qu’ils appellent le crédit social5, c’est une chose qui n’est pas totalement impossible dans des pays occidentaux et dans des démocraties libérales comme on se plaît à s’appeler par rapport à ça. Donc cette évolution vers un système de contrôle et de surveillance, que certains appellent le capitalisme de surveillance, n’est pas un scénario de science-fiction, c’est une possibilité concrète de nos régimes, à l’heure actuelle.

Éric Delvaux : Laure de la Raudière, d’ailleurs quelle a été votre position quand le gouvernement que vous soutenez au sein du groupe Agir a confié nos données médicales à Microsoft ? Qu’avez-vous dit ? Comment avez-vous réagi ?

Laure de la Raudière : J’ai d’abord posé la question de savoir pourquoi on avait choisi Microsoft et pas un acteur français ou un acteur européen et quelles avaient été les garanties qui avaient été prises vis-à-vis de nos données de santé. Déjà des données personnelles, je préférerais qu’elles soient hébergées en France auprès d’un acteur français pour être assurée que ma vie privée soit bien gérée avec les lois auxquelles j’ai souscrit en fait. Je réponds à votre question, mais vous savez qu’il y a une loi américaine qui s’appelle le CLOUD Act6 qui permet aux juridictions américaines de saisir toutes les données où qu’elles soient hébergées dans le monde, à partir du moment où ce sont des données hébergées chez un acteur américain.

Éric Delvaux : C’est un problème d’extraterritorialité.

Laure de la Raudière : Je vous remercie de le dire, extra-territorialité, si les données sont hébergées chez un acteur américain, ce qui est le cas de la quasi-totalité de nos données aujourd’hui. Donc c’est un enjeu majeur de savoir comment l’État français va protéger nos données de santé s’il y a une réquisition d’un juge américain qui voudrait avoir accès à nos données de santé.

Éric Delvaux : Est-ce que vous vous êtes fait entendre par le gouvernement ? Est-ce que vous avez fait un petit forcing auprès du gouvernement ?

Laure de la Raudière : Oui, bien sûr, bien évidemment qu’on a fait un forcing. Ils nous ont dit qu’aujourd’hui, par rapport aux exigences de fonctionnement informatique, en fait des exigences qu’il y avait dans le cahier des charges informatique, il n’y avait pas d’offre européenne qui permettait de satisfaire l’ensemble des exigences. Ce qui est le cas aussi de toutes les grandes entreprises françaises ou européennes, c’est-à-dire que ce n’est pas une spécificité de l’État français. Aujourd’hui ce que nous disent les DSI, que ça soient les DSI de l’État ou les directeurs des services d’information des grands groupes, c’est que le niveau de prestation de Google, d’Amazon ou de Microsoft est très en avance par rapport à ce qu’on est capable de faire. Donc il y a un gros enjeu aujourd’hui de développer cette offre, c’est un enjeu majeur de souveraineté.

Éric Delvaux : On va en parler après. On va aborder après les solutions et les perspectives.
Tariq Krim, Laure de la Raudière, la députée dit qu’il n’y avait pas d’offre en Europe pour héberger nos données de santé.

Tariq Krim : Je ne suis pas vraiment d’accord avec cette position. Je crois que ce que l’on voit déjà, comme le rappelait Bernard avec la question de la souveraineté, c’est qu’il y a deux choses en fait. La première, c’est une forme de démission, on a considéré qu’on ne pouvait plus rien faire en France. Il faut savoir que certaines technologies qui vont être utilisées par le Health Data Hub ont été développées par des Français, notamment sur les logiciels libres en intelligence artificielle on est très bons. Le vrai sujet c’est la question de l’hébergement, c’est la question de définir des politiques ambitieuses dans ce domaine. Et ce que l’on voit aujourd’hui, on voit ça depuis une vingtaine, une trentaine d’années, c’est que le pouvoir politique qui n’est plus technologique, qui n’a plus de compétences technologiques, va au plus rapide et le plus rapide c’est de se dire finalement, si on doit faire Health Data Hub en un an, on va utiliser Microsoft parce que c’est plus rapide.

Éric Delvaux : Je vous coupe, pardon, ça veut dire qu’il y aurait eu des solutions françaises de cloud ?

Tariq Krim : Bien sûr. Il y a des dizaines de solutions. La vraie question c’est la question de l’hébergement : est-ce que le logiciel qui fait tourner la France est hébergé en France ?, ce qui est possible. On a des acteurs très connus, Outscale, OVH, Scaleway, etc., et bien d’autres ; il y en a une quinzaine ou une vingtaine. Les hôpitaux, les cliniques hébergent des données de santé, des données numériques depuis une vingtaine, une trentaine d’années, donc ce n’est pas quelque chose de nouveau. Par contre, ce qui est important c’est de se dire est-ce qu’on met tous les moyens sur la table pour développer des industries numériques en France ? Ou est-ce que, comme malheureusement on l’a vu maintenant avec Renault, avec Airbus, avec Orange, on décide de délocaliser la recherche et développement ? Il faut le savoir, et je pense que les auditeurs doivent le savoir, à chaque fois que l’on dit on va travailler avec Google, avec Facebook, avec tous ces grands acteurs, ça veut dire que les centres de recherche et développement d’Orange, de Nokia, de Renault, de tous les grands acteurs, vont être supprimés.

Éric Delvaux : Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, vous souhaitiez réagir.

Bernard Benhamou : Oui. C’est-à-dire qu’à l’heure actuelle on sait très bien que l’argument qui a été mis en avant par le gouvernement c’est un argument de rapidité en disant effectivement « nous avons privilégié les fonctionnalités sanitaires au détriment d’une politique industrielle ». Cet argument qui était pratiquement audible dans les années précédentes parce que ça n’attirait pas autant l’attention aujourd’hui, surtout dans une période de crise comme la pandémie, on se rend compte que c’est extrêmement dangereux parce que ces outils numériques sont essentiels pour le fonctionnement de nos sociétés. Ils définissent notre société sur le long terme et si nous ne faisons pas en sorte de dresser, à un moment donné, des barrières – même si le terme n’est pas sympathique – par rapport à des technologies qui peuvent constituer un risque, surtout effectivement de surveillance, en particulier avec les Chinois mais aussi avec les Américains, nous ne développerons jamais notre propre écosystème, nous ne deviendrons jamais indépendants, souverains pour rependre le terme, et nous ne serons pas capables de définir notre futur numérique. Et ça c’est une chose qui va être déterminante politiquement pour les 10, 20, 30 ans qui viennent.

Éric Delvaux : On va aller au standard de France Inter 01 45 24 7000, avec une première question de Jean-Claude. Bonsoir Jean-Claude.

Jean-Claude : Bonsoir et merci de prendre ma question. J’étais un petit peu sur cette ligne, ce que défendait votre précédent intervenant sur la question de la santé en disant dans différents domaines il y aurait des possibilités. Il y a un exemple qui n’est peut-être pas assez connu, mais il y avait quelque chose qui s’appelait eBay, la vente entre particuliers en France et partout en Europe. Est arrivé Le Bon Coin et en un an on ne parlait plus d’eBay, tout le monde était sur Le Bon Coin. C’est un exemple.

Éric Delvaux : Et Le Bon Coin est en train de racheter eBay me semble-t-il.

Jean-Claude : C’est possible en plus, je ne savais pas, merci.
Il y a d’autres domaines, évidemment Amazon. En fait en France on avait une vielle tradition : le catalogue Manufrance a existé, après il a eu La Redoute, il y a eu la Camif, etc. Il y a un problème de cahier des charges. C’est vrai qu’il y a les prix, mais si on fait mieux au point de vue avis des consommateurs, etc. ; il y a une petite entreprise, relativement, LDLC, dans le domaine informatique, qui marche très bien. Donc ça peut très bien se généraliser, surtout avec La Poste en arrière ligne, il n’y a pas de problème.
Il y a un autre domaine. On parle de Microsoft mais, en fait, dans les collèges français les élèves travaillent très souvent sur du logiciel libre pour ne pas acheter les licences Microsoft, dans tous les domaines, traitement de texte, etc., et même la Gendarmerie pour la confidentialité parce qu’il y a évidemment des back doors, des portes d’espionnage, dans tous les logiciels Microsoft, c’est ce que demande la CIA.

Éric Delvaux : Voilà pour votre constat. Et la question ?

Jean-Claude : Le dernier exemple c’est Google. En France on a des mathématiciens, les algorithmes c’est avant tout des mathématiques et on devrait pouvoir y arriver. Donc où est la volonté ? Les moyens existent, ils sont là et en plus il y aura une demande parce qu’il y a des tas de pays dans le monde qui sont évidemment très intéressés par le logiciel libre, par l’indépendance, par la sécurité des données, donc il y a réellement un marché.

Éric Delvaux : Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, qui manque de volonté dans cette affaire ?

Bernard Benhamou : Je dirais qu’il y a une sorte de renoncement généralisé de nos décideurs depuis effectivement une dizaine ou une quinzaine d’années sur le mode « de toute manière on a loupé la marche, on n’a pas réussi à créer de vrais acteurs de taille internationale ». Monsieur citait eBay qui a été créé par quelqu’un qui était aussi français, Pierre Omidyar, mais de fait on n’a pas de société à empreinte internationale, peut-être à part BlaBlaCar qui est un beau succès européen et un début de succès international. Donc, quelque part, on a eu une sorte de renoncement sur le mode « de toute manière c’est perdu, donc on fait affaire avec ceux qui effectivement tiennent le haut du pavé ». Je le répète, c’était quelque chose de « compréhensible », entre guillemets, ou d’audible il y a quelques années quand on ne voyait pas les risques de dérives de surveillance, de dérives politiques comme on a pu le voir avec le scandale Cambridge Analytica7, où on voit que l’Internet peut faire basculer des élections. Maintenant on n’a plus le luxe de la naïveté par rapport à ça. Il y a eu Snowden8 qui nous a démontré ce qu’étaient les programmes de surveillance de la NSA, il y a eu ce scandale Cambridge Analytica et bien d’autres, on pourrait en citer d’autres, donc maintenant c’est bien de notre futur, y compris politique, dont il s’agit. Donc effectivement, ce renoncement devient toxique, devient dangereux.

Éric Delvaux : Tariq Krim.

Tariq Krim : J’allais dire, pour reprendre ce que disait Bernard, aujourd’hui nous sommes dans l’Amérique de Donald Trump, ce n’est plus l’Amérique d’Obama. D’une certaine manière il y avait une forme d’ambiguïté, on travaillait avec des Américains, les choses fonctionnaient bien. Sauf que aujourd’hui quand vous voyez la guerre entre les États-Unis et la Chine c’est très simple, d’ici 2050 la Chine sera numéro un, l’Inde sera numéro deux.

Éric Delvaux : Sur quelle base ?

Tariq Krim : Au niveau mondial, en termes d’économie.

Éric Delvaux : Sur l’économie.

Tariq Krim : Et ni la France ni l’Allemagne ne seront dans le top 10. La raison pour laquelle la technologie est si importante pour les Américains c’est qu’elle leur permet d’avoir encore je dirais une corde, une possibilité de tenir la Chine. Regardez ce qui s’est passé avec TikTok qui est quasiment en passe d’être interdit, avec Huawei. Que se passerait-il en France si du jour au lendemain Donald Trump, et il le peut par un décret exécutif, disait « Google ne peut plus opérer en Europe ». Plus de Google mail, plus de Waze, plus rien. Comment fait-on ? Quel est le plan B ? Et aujourd’hui, je dirais que le débat sur la souveraineté numérique a évolué vers cette question : quel est notre plan B ?

Éric Delvaux : Laure de la Raudière, députée Agir, si on se place dans la perspective de la 5G en France, est-ce qu’il va donc falloir écarter le Chinois Huawei de la future 5G française ? C’est d’ailleurs une hypothèse de l’ANSSI, l’Agence nationale de sécurité des systèmes d’information. Vous êtes favorable à ça ?

Laure de la Raudière : Je suis favorable à suivre les recommandations de l’ANSSI qui est une agence qui a une très bonne réputation au niveau international et qui aura une décision très juste par rapport aux enjeux de sécurité concernant nos données et nos citoyens. Si l’ANSSI dit qu’il faut écarter Huawei de certaines antennes – dans un premier temps elle a dit pas partout et après on ne renouvellera plus les antennes qui sont Huawei – eh bien il faut le faire, d’autant plus que ça favorisera nécessairement deux champions européens que sont Nokia et Ericsson. On a la chance d’avoir des équipementiers réseaux en Europe, on a tout intérêt à les pousser, à développer des innovations qui correspondront aux besoins à la fois des citoyens et des industries, puisque le réseau 5G est un enjeu de compétitivité industrielle majeur pour la France.
Je voudrais juste revenir sur l’aspect politique, quand même, sur la souveraineté numérique puisqu’en tant que députée ça fait 13 ans que je porte ces enjeux à l’Assemblée nationale et 13 ans que je m’épuise à dire ce qu’ont dit les deux précédents orateurs, Tariq Krim et Bernard Benhamou, et que la Commission européenne a été très lente à prendre l’enjeu des technologies numériques et à les mettre comme un enjeu stratégique au niveau européen. La première fois que c’est vraiment mis dans la feuille de route de la Commission européenne en tant qu’enjeu industriel, technologique, stratégique, c’est en 2019, c’est avec la nouvelle Commission en fait. Il y a un commissaire qui est en charge du marché intérieur qui est Thierry Breton, qui est en plus le commissaire que la France a choisi, qui connaît parfaitement ces enjeux. Donc on doit porter cette ambition politique de bâtir une souveraineté numérique en Europe.
Je suis d’accord avec l’auditeur qui est intervenu c’est qu’il y a des parts de marché qu’on peut reprendre. Sur le cloud, par exemple, il y a une volonté de la France et de l’Europe de déployer un cloud européen qui soit au niveau de compétitivité des offres américaines et ça c’est essentiel.

Éric Delvaux : Je vous coupe Laure de la Raudière. Quand Thierry Breton que vous évoquiez, le commissaire européen du marché intérieur déclare au début de l’été qu’il faut assurer la souveraineté numérique de l’Europe, est-ce que ça fédère pour autant une réelle stratégie européenne ? Je vous pose la question Tarik Krim, ou est-ce qu’on en restera finalement à une simple déclaration d’intention ?

Tarik Krim : En fait ce qu’il faut comprendre c’est que tous les pays ne sont pas alignés de la même manière. Prenons l’exemple de l’Allemagne. L’Allemagne a une obsession c’est protéger son industrie de l’espionnage industriel chinois, notamment les machines-outils. Très tôt ils ont compris qu’il fallait travailler localement. Prenons un exemple : BMW, pour sa solution autonome, a développé quelque chose en interne. Renault travaille avec Waymo qui est, en fait, une filiale de Google. Aujourd’hui en France, tant qu’on n’a pas compris que nous sommes essentiellement un pays de services et quelle vision du numérique nous souhaitons mettre en avant, avant même de l’exporter puisqu’on parlait tout à l’heure de cette idée qu’on peut aussi exporter une vision du numérique un peu plus apaisée, différente du modèle des GAFAM, il faut d’abord se mettre d’accord sur quel type de numérique on veut.

Éric Delvaux : 01 45 24 7000, le standard de France Inter, on va aller au standard avec vous Isabelle. Bonjour Isabelle.

Isabelle : Bonjour. Merci France Inter pour vos émissions toujours très intéressantes.

Éric Delvaux : C’est gentil.

Isabelle : Merci d’avoir pris mon appel.
Je voulais apporter un témoignage plutôt qu’une question, mais on est toujours ouvert au débat. Je voudrais tout de même que soit exprimée sur les ondes la question de quelle société voulons-nous et quelle société numérique ? Il faut arrêter de dire que le numérique c’est écolo. Maintenant on commence à avoir des études au niveau de toute l’énergie grise, l’énergie masquée, le problème des rebuts, etc. Il faut arrêter de dire « faites-vous soigner par l’intelligence artificielle » ou alors que les gens qui le disent se fassent soigner par des robots et on en reparlera après. C’est peut-être mieux que les acteurs soient français plutôt qu’américains ou chinois, mais il faut aussi reconnaître que le modèle économique des entreprises du numérique est basé sur la viralité. Comme on est en saison de virus, c’est bien de viralité dont il s’agit, c’est-à-dire créer des besoins, créer de la captation d’attention. Au début on nous a vendu le numérique en disant ça vous fait gagner du temps. Je suis désolée tout autour de moi, dans la vraie vie, les gens ont de moins en moins de temps libre parce qu’ils ont toujours le nez sur leurs écrans. Je pense qu’il est important qu’il y ait une réflexion citoyenne qui remonte après au niveau des décideurs politiques. Cette réflexion est amorcée par certaines personnes, par certains groupes, associations, mais elle est encore insuffisamment entendue. De quelle société voulons-nous ?

Éric Delvaux : Merci Isabelle de ce témoignage, vous nous appeliez de la Drome, Peyrus précisément.
Tarik Krim, comment rendre notre souveraineté numérique en phase avec la transition écologique c’est justement une de vos marottes, le slow web notamment dont vous faites la promotion, ça ressemblerait à quoi ?

Tarik Krim : Historiquement il y a eu deux visions de l’informatique. La première c’est de dire que l’informatique est un simple outil qui va nous aider à devenir plus intelligents, à faire plus de choses et une autre vision, qui est d’ailleurs la vision dominante aujourd’hui, qui est de dire que l’informatique va nous remplacer, va réfléchir à notre place, c’est un peu le modèle de l’intelligence artificielle. Cette idée du slow web c’est cette idée que finalement la technologie doit être présente quand on en a besoin et absente quand on n’a en pas besoin. Ce qui est drôle et c’est le paradoxe que disait Madame, c’est que d’une certaine manière nous avons gagné du temps grâce à tous ces outils, à nos téléphones, et ce temps que nous avons gagné nous le passons sur nos téléphones.

Éric Delvaux : Sur les mêmes outils.

Tarik Krim : Sur les mêmes outils, à consommer. En fait il y a une sorte de boucle, ce qu’on appelle aux États-Unis le capitalisme de surveillance où, finalement, nous sommes la denrée, c’est-à-dire que notre attention devient la valeur économique et cette attention doit être captée. Le patron de Netflix disait qu’il est en compétition avec le sommeil, c’est-à-dire que finalement cela va au-delà de ce qui est bon également pour nous. D’un point de vue de la consommation, effectivement, ce capitalisme de surveillance, cette idée qu’on doit analyser, transformer en données absolument tout, consomme une énergie folle et curieusement ce sont ces mêmes outils qui fragmentent les débats politiques et qui nous empêchent, en fait, de reprendre le contrôle du long terme.

Éric Delvaux : Une souveraineté numérique en phase avec la transition écologique, c’est une question politique disait à l’instant notre auditrice.
Laure de la Raudière, ça fait plus d’une décennie que vous portez ces questions à bout de bras. C’est compatible et c’est entendu par la classe politique de faire de la souveraineté numérique un parallèle avec la transition écologique ?

Laure de la Raudière : En tout cas c’est une transformation profonde de la société comme l’est la transformation écologique que nous devons avoir. Dans cette transformation numérique de la société, on doit définir politiquement et avec les citoyens quelles valeurs ont veut avoir dans notre société. Aujourd’hui nos valeurs communes sont mises à mal avec cette transformation numérique de la société, nos valeurs de vie privée, la lutte contre les propos haineux. Parfois même les valeurs démocratiques sont challengées, on l’a vu avec l’usage, en fait, des réseaux sociaux pour manipuler l’opinion à grande échelle depuis une puissance étrangère. Ça a été prouvé par exemple dans le cadre du Brexit, ça a été prouvé dans le cadre du référendum sur l’indépendance de la Catalogne de mémoire. On voit bien que cette transformation numérique de la société engendre de nouveaux risques et met à mal, en fait, des valeurs communes qui sont les valeurs qu’on a décidées pour notre société. C’est aussi le cas de la lutte contre les fausses informations qui se diffusent plus rapidement sur le Web que les bonnes. On doit challenger ensemble et trouver les moyens de pouvoir conserver nos valeurs communes dans cette nouvelle société et c’est extrêmement complexe.

Éric Delvaux : Laure de la Raudière, ma question était : est-ce que vous êtes entendue par les gouvernements, par vos collègues au Parlement lorsque vous leur parlez d’écologie et de transition numérique ?

Laure de la Raudière : Sur le problème du numérique c’est souvent un problème de compétences.

Éric Delvaux : La classe politique n’est pas compétente techniquement aujourd’hui pour prendre des décisions ?

Laure de la Raudière : Je dirais que depuis 2017 il y a eu un changement radical au sein de l’Assemblée nationale. Parmi les nouveaux député·e·s il y a beaucoup plus de député·e·s très compétent·e·s sur les enjeux numériques par rapport à avant. On commence à avoir une maturité sur les débats. Avant souvent en fait on votait des choses qui ne permettaient pas d’avoir des résultats par rapport aux objectifs qu’on se fixait.

Éric Delvaux : On va retourner au standard. Merci. Pardon de vous couper, je veux également donner la priorité aux auditeurs de France Inter avec Pascal qui nous appelle du Lot. Bonsoir Pascal.

Pascal : Bonsoir.

Éric Delvaux : Quelle est votre question ?

Pascal : C’était pour revenir sur le droit américain qui s’applique dès lors qu’un produit que vous achetez est payé en dollars, le produit tombe sous le coup du droit américain. Pour mémoire vous aviez BNP qui a, en négociant, été condamnée, qui a une très forte amende aux États-Unis de façon à être disculpée par rapport à des histoires comptables, ce n’est pas grave. Renault a été obligé, quand Trump est parti de l’Iran, de quitter l’Iran parce que, bien sûr, ses voitures sont vendues en dollars, donc hégémonie américaine de ce côté-là. Personnellement je suis avec Google au niveau de ma boîte mail, je sais que tout ce qui est sur ma boîte mail relève du droit américain, c’est marqué dans les textes encore mis à jour dernièrement.

Éric Delvaux : Votre question. Ça c’est le constat. Vous avez une question ou c’est juste un commentaire ?

Pascal : La question c’est quand est-ce que l’Europe, puisque c’est eux qu’il faut plutôt privilégier, je ne pense pas que la France à elle toute seule arrivera à quelque chose.

Éric Delvaux : Ça se passe effectivement au niveau européen plus qu’au niveau national.

Pascal : Personnellement je pense qu’au niveau européen il faut arrêter l’hégémonie américaine. Que l’État français donne à Microsoft…

Éric Delvaux : Nos données de santé, nos secrets médicaux.

Pascal : Nos données médicales, c'est donné à l'épouse de Bill Gates qui, elle, développe des logiciels et des médicaments artificiels adaptés à chaque cas de personne, ce sont des sociétés qu’elle possède qui développent ce genre de médicaments, donc c’est leur donner pleins pouvoirs par rapport à nous ici en France, donc permettre à des laboratoires américains de développer plus vite les produits. Par rapport au covid, par exemple, ce sont eux qui auront la mainmise parce que les données auront été récupérées bien avant que l’État français ne puisse lever le petit doigt.

Éric Delvaux : Merci Pascal de ce témoignage et de cette question.
Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, les questions reviennent un peu en boucle, mais quelles sont donc les alternatives pour échapper aux GAFAM et aux Chinois aujourd’hui ?

Bernard Benhamou : L’alternative c’est déjà de poser une limite, c’est-à-dire de dire qu’il est des données qui ne peuvent ni ne doivent être traitées autrement que par des sociétés européennes sur le sol européen, c’est ce qu’on appelle le principe de localisation des données. C’est un principe qui est évoqué mais pour l’instant pas encore mis en œuvre et qu’il nous faudra mettre en œuvre quand il est question de données aussi sensibles que les données relatives à la santé, les données ethniques, les données relatives aux opinions politiques, etc. Ces données-là, par définition, ne devraient pas pouvoir être traitées par des acteurs américains et encore moins pouvoir être rapatriées aux États-Unis.
Je rappellerai pour mémoire qu’il y a quelques jours, c’est tout récent, la Cour de justice de l’Union européenne a annulé l’accord qui permettait à plus de 4000, presque 5000 sociétés américaines de traiter les données des Européens aux États-Unis, ce qu’on appelait le privacy shield, peu importe, eh bien cet accord a été rompu parce que justement les données des Européens ne sont pas protégées correctement.
Donc quand vous me dites quelle est la première chose à faire, c‘est déjà établir un diagnostic clair en disant qu’on ne peut pas se permettre le risque et on l’a vu, madame de la Raudière le rappelait sur les manipulations électorales, on ne peut plus se permettre le risque de voir nos sociétés entièrement dirigées, pilotées de l’extérieur par des sociétés ou des États qui peuvent être hostiles, comme on l’a vu effectivement avec la Russie pour le scandale Cambridge Analytica entre autres.
Par définition, je reviendrai aussi sur un point. Il a été dit, en gros, qu’il y avait un risque par rapport effectivement à l’accélération des langages de haine, ça été l’objet d’un débat à l’Assemblée il y a quelque temps, mais le problème c’est que les sociétés comme Google ont tout intérêt à ce que des propos radicaux soient échangés sur la plateforme.

Éric Delvaux : Pourquoi ?

Bernard Benhamou : Prenons par exemple YouTube. Ce n’est pas compliqué, plus une vidéo est considérée comme radicale, plus les experts ont remarqué qu'elle devient virale et plus les gens restent, excusez-moi l’expression, scotchés dessus. Or Google vit du temps que vous passez à regarder de la publicité. Leur algorithme a été modifié pour favoriser des vidéos qui sont de plus en plus radicales. Vous avez une sociologue qui a étudié cela, Zeynep Tufekci, qui dit que YouTube est peut-être le principal outil de radicalisation politique du 21e siècle. Ce propos-là doit nous faire comprendre que ce n’est pas à la marge que l’on doit corriger le tir, c’est certaines choses, y compris ce l’on appelle dans le jargon technique le micro-ciblage, c’est-à-dire le fait de pouvoir adresser une publicité ou un message à une ou deux ou cinq personnes et non pas à des millions comme on le faisait auparavant avec des panneaux publicitaires, mais bien effectivement des messages, comme on le voit sur Facebook ou sur Google, qui sont adressés à quelques personnes. C’est ce type de fonctionnement que nous Européens, puisqu’il a été question d’un modèle européen, qu’est-ce que pourrait être un numérique à visage européen ?, eh bien typiquement ce serait un numérique où le ciblage, la modélisation des comportements de chacun n’est plus la règle absolue, ce qui est à l’heure actuelle le cas avec la publicité sur Internet.

Éric Delvaux : Au standard de France Inter Matthieu nous appelle de Bretagne. Bonsoir Matthieu.

Matthieu : Bonsoir.

Éric Delvaux : Quelle est votre question ?

Matthieu : Je suis délégué à la protection des données pour une collectivité territoriale et à notre niveau local on voit que la seule chose qui ait réellement fait changer les pratiques en termes de protection des données à caractère personnel c’est le RGPD9, le Règlement général sur la protection des données.

Éric Delvaux : Qui est un droit européen qui renforce notre protection au niveau européen.

Matthieu : Exactement. Et ce qui est très surprenant c’est d’entendre la majeure partie de vos interlocuteurs parler exclusivement du niveau national, comme s’il y avait la moindre chance qu’on puisse !
Le fait que vous n’ayez pas de député européen alors que c’est à ce niveau-là que ça se joue, c’est très surprenant. Voir qu’on raisonne encore comme si la France était une échelle suffisante pour faire bouger les comportements alors que la raison pour laquelle la Chine, la Russie ou les États-Unis ont des entreprises capables d’atteindre ces masses critiques, c’est justement parce qu’elles ont une taille suffisante pour avoir des levées de fonds qui permettent de faire changer les choses.

Éric Delvaux : Sur le choix des invités ça me regarde en particulier et je confirme que nous avons bien fait aussi d’inviter une députée, même si, vous avez raison, ça se passe surtout au niveau européen, il n’empêche qu’il y a aussi en France un mot à dire et c’est ce que fait Laure de la Raudière, députée Agir, qui s’occupe depuis 13 ans déjà je crois des questions numériques en France et qu’elle fait le relais. Cela dit un député ou une députée européenne aurait été aussi la bienvenue. Maintenant effectivement, on le dit depuis le début, mais on va le rappeler, Tarik Krim, ce n’est pas au niveau national que ça se joue. Cette souveraineté numérique sera d’abord européenne ?

Tarik Krim : Pas que. Il faut bien voir les choses. Si on parle de guerre économique, on l’a vu avec la crise du covid, l’Europe a un peu explosé en vol sur la question des masques, sur les outils de traçage, on aurait dû se coordonner sur plein de choses. Donc déjà d’un point de vue économique chaque pays réfléchit d’abord à lui-même et à sa capacité de créer de l’emploi. Ce qu’il y a derrière la question de la souveraineté numérique c’est essentiellement la question d’avoir de l’emploi qualifié en France. Est-ce qu’on forme des ingénieurs en France pour qu’ils travaillent dans des sociétés en France ou est-ce qu’on les forme pour qu’ils aillent chez Google, Facebook, Amazon, ce qui est d’ailleurs une petite partie d’entre eux, mais qui pourrait bientôt devenir une majeure partie si on n’a pas de plan de B.
D’un point de vue européen ce qui est intéressant c’est qu’on a, je dirais, une approche beaucoup plus diplomatique. Ce qui est intéressant avec le RGPD c’est que c’est victoire diplomatique de l’Europe. Pour la première fois on a dit voilà comment on va faire les choses.

Éric Delvaux : Le Règlement général de protection des données.

Tarik Krim : Absolument, le Règlement général de protection des données, d’ailleurs le CLOUD Act, cette fameuse loi américaine, a été fait un peu en opposition au RGPD, il faut le dire et maintenant ça commence à inspirer d’autres pays. Le Japon s’est dit on va faire un standard un peu similaire, la Californie. En fait, quand on est novateur et quand on invente quelque chose d’un peu plus éthique, une vision qui est vraiment la nôtre, on inspire d’autres pays. Mais il ne faut pas oublier qu’il y a plusieurs niveaux, il y a l’aspect dans quel monde numérique veut-on vivre et surtout quelle va être la place de la France d’un point de vue économique dans un monde qui est essentiellement numérisé ?

Éric Delvaux : Sur la place de la France, Laure de la Raudière vous souhaitiez réagir à l’intervention de notre auditeur Matthieu de Bretagne.

Laure de la Raudière : Oui, simplement pour rappeler qu’on a la chance aujourd’hui d’avoir au niveau européen Thierry Breton qui connaît très bien ces enjeux de part son profil professionnel précédent.

Éric Delvaux : Capitaine d’industrie aussi.

Laure de la Raudière : Voilà, capitaine d’industrie dans le domaine du numérique. Il est commissaire européen en charge du marché intérieur et c’est avec lui qu’il faut travailler sur tous ces enjeux. Je vais donner un exemple : je pense que le droit de la concurrence doit évoluer au niveau européen pour permettre des régulations des acteurs tels que Google, tels qu’Amazon, qui sont des acteurs systémiques en position de quasi-monopole et quelquefois ils abusent de leur position dominante. Qu’on puisse faire des régulations ex ante en fait du droit de la concurrence et non pas ex post. Aujourd’hui, quand une petite entreprise startup est en conflit avec Google ou Amazon ça met six ans, sept ans, huit ans à être jugé jusqu’au bout. Quelquefois elle a gain de cause, mais elle est déjà morte, elle ne peut plus exister sur son marché parce que Google l’a tuée par des pratiques anti-concurrentielles. Typiquement ça, ça doit être vu au niveau européen.
Deuxième chose qui doit être vue au niveau européen, on n’a en pas parlé, ça me parait un enjeu très important, ce sont les histoires de monnaies virtuelles. Il y a eu une prise de conscience des chefs d’État au moment de l’annonce par Facebook de Libra. Là ça les a choqués d’un point de vue atteinte à la souveraineté de l’État, en fait, souveraineté numérique, parce qu’un acteur privé disait qu’il allait faire une monnaie virtuelle et un acteur qui relie deux milliards d’individus dans le monde. Là aussi on peut l'envisager. Il faut que l’Europe puisse émettre une monnaie virtuelle basée sur l’euro pour défendre la valeur de l’euro dans le cadre d’échanges en monnaies virtuelles, sinon on n’existera plus non plus en termes de monnaie.

Éric Delvaux : Il y avait deux chapitres dans votre intervention, j’ai bien retenu les monnaies virtuelles. Je voudrais revenir sur le droit européen de la concurrence. Quand on évoquait le fait d’évincer Huawei de la 5G française, est-ce que ce serait de la discrimination commerciale ? Est-ce que ce serait bien compatible avec le droit européen à la concurrence ? Bernard Benhamou.

Bernard Benhamou : Il y a aussi les questions de concurrence, bien sûr, mais lorsqu’il est question de sécurité nationale, les règles européennes ne s’appliquent pas. Donc si l’on considère, comme l’ANSSI a eu l’occasion de le dire récemment avec l’excellent Guillaume Poupard10, par définition on ne peut pas aller vers des solutions qui mettent en péril la sécurité collective des Français ou des Européens. Je rappellerai justement par rapport à ces questions de concurrence d’acteurs étrangers que le ministre de la Justice de Donald Trump a dit par rapport à la 5G « nous sommes faibles nous Américains, donc nous allons racheter Nokia et Ericsson ».

Éric Delvaux : Ça nous embête, donc on rachète !

Bernard Benhamou : Exactement. Ça veut dire en clair que nous, Européens, devenons la proie que l’on vient dépecer. D’un côté nous sommes le marché qui permet effectivement à ces sociétés de se développer et de l’autre côté on vient dépecer nos cerveaux, nos entreprises.
Je rappellerai un dernier point : il nous faut envisager clairement aujourd’hui des mesures non seulement comme il a été dit ex ante pour empêcher des fusions, mais peut-être même dé-fusionner des sociétés, comme l’Europe a su le faire dans le passé quand il s’agissait de turbines d’avion ou d’autres choses. Séparer des sociétés qui sont devenues trop puissantes, c’est-à-dire démanteler pour employer les termes, c’est une chose que l’on doit réellement envisager aujourd’hui.

Éric Delvaux : Vous pensez à qui ? Vous pensez auxquelles ?

Bernard Benhamou : Je pense en particulier à Facebook et à Google, mais pas qu’eux. En particulier ces deux-là. Les économistes de la Commission européenne ont reconnu après les auditions qu’ils avaient menées au moment du rachat de WhatsApp que, je cite « ils s’étaient fait avoir », c’est-à-dire, en gros, que tous les engagements que Facebook, la main sur cœur, s’était engagé à tenir n’ont pas été tenus et on a maintenant un mastodonte qui effectivement ne doit possiblement sa survie dans les années à venir que par l’intervention de Trump qui va bloquer son concurrent chinois TikTok.
Là on est face à un jeu qui n’est absolument pas juste, comme diraient les économistes, c’est un jeu qui est totalement déséquilibré et dans lequel l’Europe doit et peut intervenir pour dire que ces fusions-là ne peuvent pas continuer dans la durée au risque, effectivement, de perturber l’ensemble de l’économie de ce secteur.

Éric Delvaux : Et pour aller au bout de l’exemple de la 5G et de Huawei, les Britanniques, eux, ne tergiversent pas, ils ne veulent pas entendre parler de Huawei dans la future 5G britannique. Tariq Krim, est-ce que vous estimez que la France, dans ce dossier, minaude au lieu de s’imposer sur ce marché ?

Tariq Krim : Quand on parle 5G, en fait ce qu’il faut comprendre c’est qu’au-delà de la vitesse c’est un réseau qui va donner encore plus de contrôle aux opérateurs et notamment aux GAFAM. Donc la question à se poser c’est est-ce qu’on peut construire une 5G alternative ? Ce qui est intéressant c’est qu’en France il y a des sociétés notamment comme Amarisoft qui permettent de faire de la 5G locale à plus bas coût, qui sont elles-mêmes en train de disrupter des sociétés comme Huawei. Malheureusement, comme on a souvent l’habitude en France, on ne travaille qu’avec les gros acteurs, on n’a pas assez regardé ce qui se fait en France.
Je le répète encore une fois, en France on a vraiment beaucoup de solutions, d’ingénieurs de talent, il faudrait qu’on leur donne les moyens de se développer.

Éric Delvaux : Et bien merci d'avoir répondu aux auditeurs de France Inter. Ça passe très vite effectivement.
Merci à vous Laure de la Raudière, députée Agir, merci Tarik Krim, entrepreneur et ancien vice-président du Conseil National du Numérique, et merci beaucoup Bernard Benhamou, secrétaire général de l'institut de la souveraineté numérique.

Dans quelques secondes il sera 20 heures.

Revue de presse de l'April pour la semaine 33 de l'année 2020

lun, 08/17/2020 - 23:06

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[LeMagIT] Développement: 10 outils open source populaires à ne pas négliger

✍ Chris Tozzi et Gaétan Raoul, le vendredi 14 août 2020.

Les outils de développement propriétaires ne manquent pas sur le marché, et la plupart d’entre eux fonctionnent assez bien. Cependant, les développeurs qui optent pour des outils open source bénéficient de nombreux avantages.

[Next INpact] Le logiciel libre arrive au sein de la Centrale d'achat de l'informatique hospitalière (¤)

✍ Marc Rees, le vendredi 14 août 2020.

La CAIH vient de lancer un appel d’offres. Objet ? Proposer des logiciels sous licence libre à ses 1 200 membres établissements de santé. Un mouvement qu’avait réclamé Olivier Véran, du moins lorsqu’il était député.

[Silicon] Open Source: Facebook rejoint la Fondation Linux

✍ Ariane Beky, le vendredi 14 août 2020.

Facebook rejoint les membres les plus influents de la Fondation Linux et place sa responsable open source au conseil d’administration de l’organisation.

[Le Monde Informatique] 430% de cyberattaques en plus sur les composants Open Source

✍ Maryse Gros, le jeudi 13 août 2020.

La chaîne logicielle des entreprises est de plus en plus dépendante des composants open source qui lui permettent d’innover plus rapidement. Mais les projets intègrent aussi des centaines de dépendances avec d’autres projets open source qui peuvent contenir des failles. L'édition 2020 du State of the Software Supply Chain indique une hausse de 430% des cyberattaques de nouvelle génération visant à infiltrer ces composants.

[ZDNet France] Accord Google/Mozilla: vers une prolongation

✍ Catalin Cimpanu, le jeudi 13 août 2020.

Selon plusieurs sources, Google devrait rester le moteur de recherche par défaut de Firefox pour les trois prochaines années.

[usine-digitale.fr] Mozilla, développeur du navigateur Firefox, licencie 250 personnes

✍ Julien Bergounhoux, le mardi 11 août 2020.

Mozilla Corporation, filiale de la fondation Mozilla en charge du navigateur Firefox, a annoncé ce 11 août son intention de licencier environ 250 employés. L’entreprise met en cause la crise économique liée à la pandémie de Covid-19, ses plans d’avant crise n'étant plus tenables.

Appel d'offres de la Centrale d'Achat de l'Informatique Hospitalière sur le logiciel libre

lun, 08/17/2020 - 17:19

La CAIH (Centrale d'Achat de l'Informatique Hospitalière) vient de lancer un appel d’offres pour proposer des logiciels libres à ses 1 200 membres établissements de santé. C'est une bonne nouvelle et l'April encourage les entreprises du libre à se saisir de cette opportunité. La date de clôture est le 25 septembre 2020 à 12h30.

Pour rappel, la CAIH a un accord-cadre avec Microsoft depuis 2015, renouvellé en 2019 pour quatre ans. Cet appel d'offres est donc plutôt un bon signe d'une volonté de la CAIH de proposer une alternative respectueuse des libertés et des données personnelles. L'appel d'offres porte sur la fourniture 1:

  • D’étude de faisabilité, de chiffrage et d’analyse de risque de migration d’un pan fonctionnel du SI de santé vers de l’Open Source ;
  • De solutions « clients », « serveurs » et services en ligne « Open Source » agréé HDS ou opérés sur des cloud HDS de nos adhérents ;
  • De prestations de migration depuis les technologies « Oracle » et « Microsoft » vers de l’Open source ;
  • De services de maintenance, de tierce maintenance applicative, de prestations autours de technologies Open Source ;
  • De services d’infogérance de solutions Open Source.

Le CCTP (cahier des clauses techniques particulières) détaille les besoins fonctionnels et les unités d'œuvre : étude de faisabilité de migration vers le libre ; poste de travail libre ; serveurs ; visioconférence ; espace collaboratif ; suite bureautique libre et logiciels métiers ; base de données pour remplacer Oracle… C'est un marché qui couvre donc de très nombreuses technologies libres.

Le contrat est un accord-cadre mono-attributaire non alloti 2. L'April regrette ce choix. L'accord-cadre multi-attributaire est la règle par défaut de la commande publique. Notamment parce que cela permet de renforcer la concurrence en permettant aux entreprises type PME d'accéder plus largement aux marchés publics. Et le monde du logiciel libre est avant tout constitué de PME. Espérons que cela n'empêchera pas des réponses à cet appel d'offres, soit par une entreprise unique soit par un groupement d'entreprises.

Tous les documents utiles pour répondre à cet appel d'offres sont disponibles sur la plateforme des achats de l'État.

  • 1. Les extraits du document utilisent le terme Open Source, l'April préfère le terme logiciel libre
  • 2. L'accord-cadre mono-attributaire est un accord passé avec une seule entreprise (ou un groupement) pour l'ensemble des lots du contrat correspondant aux différentes prestations demandées dans le marché public. Un accord multi-attributaire permet à des entreprises de candidater à un ou plusieurs lots en fonction de leur domaine de compétence et est de ce fait bien plus accessibles aux entreprises type PME.

Geoffrey Knauth nouveau président de la FSF et Odile Bénassy intègre le conseil d'administration

lun, 08/17/2020 - 08:41

La Fondation pour le Logiciel Libre (FSF) a annoncé la nomination de Geoffrey Knauth comme nouveau président. La FSF accueille également une nouvelle membre au sein de son conseil d'administration en la personne d'Odile Benassy, membre de longue date de l'April. Odile porte d'ailleurs fièrement un t-shirt April sur la page d'annonce de la FSF. Toutes nos félicitations à Geoffrey et à Odile. L'April aura plaisir à travailler avec la Fondation pour le Logiciel Libre comme elle le fait depuis sa création.

Comment lutter contre les dérives du Net ? Arthur Messaud

jeu, 08/13/2020 - 11:19


Titre : Comment lutter contre les dérives du Net ?
Intervenant·e·s : Arthur Messaud - Pascale de la Tour du Pin
Lieu : Matinale de LCI
Date : 15 mai 2019
Durée : 4 min 20
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration : logo de La Quadrature du Net - Licence Creative Commons CC BY-SA 4.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Le 15 mai 2019, sur le créneau de la rubrique du '6h40', Arthur Messaud, juriste à La Quadrature du Net, était l'invité de La Matinale de LCI et interrogé par Pascale de la Tour du Pin pour évoquer Facebook et sa modération.

Transcription

Pascale de la Tour du Pin : Bonjour Arthur Messaud, vous êtes juriste à La Quadrature du Net1. Merci d'être avec nous sur le plateau.

Arthur Messaud : Bonjour.

Pascale de la Tour du Pin : Je voudrais juste vous faire réagir au reportage que l'on vient de voir, ces modérateurs du Net qui travaillent. On a vraiment le sentiment que c'est encore très artisanal.

Arthur Messaud : Ça l'est complètement et ça va le rester. Là on voit quelqu'un qui est à Dublin mais, en fait, la plupart des personnes qui vont être employées dans ces fonctions vont plutôt être en Asie, en Afrique, en Amérique du Sud. Elles vont être employées dans des conditions salariales terribles et des conditions de travail, on l'a vu, qui sont lamentables.

Pascale de la Tour du Pin : C'est vrai que l'on comprend peut-être mieux comment les géants d'Internet ont effectivement du mal à contenir des contenus qui sont notamment terroristes. Ce sera le thème du jour qui sera abordé autour d'Emmanuel Macron à l’Élysée aujourd'hui, alors que l'on apprend ce matin que Facebook va restreindre l'usage de sa plateforme Facebook Live de vidéos en direct. Est-ce que c'est suffisant ?

Arthur Messaud : Non, c'est de la poudre aux yeux. Ce qui s'est passé sur Facebook au moment de l'attentat de Christchurch2, de la tuerie, c'est que la personne qui a fait cette tuerie s'est filmée elle-même en live et a diffusé sur Facebook Live. En fait, cela a été vu par 100, 200 personnes, par très peu de gens, mais notamment par des alliés de ce tueur qui ont pris la vidéo et l'on dupliquée sur Facebook. Ils ont réussi très facilement à passer outre « l'intelligence artificielle » de Facebook qui est, en fait, une passoire. Sur YouTube, il y a eu le même problème. Ces technologies que l'on nous vante comme magiques, sont très facilement contournables par des humains un peu organisés. Il suffisait typiquement de changer un peu la couleur de la vidéo pour rendre tout leur système inopérant.

Pascale de la Tour du Pin : Excusez-moi, ça paraît dingue ! Je ne suis pas une initiée ! Comment se fait-il que Facebook ne l'ait pas fait ?

Arthur Messaud : En fait, Facebook ne peut pas le faire, ne pouvait pas le faire. Facebook a deux armes : son intelligence artificielle qu'il présente comme une solution magique mais qui ne marche pas du tout, on l'a vu, elle n'a pas du tout marché, ou des milliers de salariés, de modérateurs, comme on a vu, qui ne peuvent pas gérer des millions et des millions, voire des milliards de personnes sur Facebook parce que c'est beaucoup trop dur. Facebook, Google pareil, Twitter aussi, se sont mis dans une situation qui est impossible à résoudre. Il y a beaucoup trop de personnes au même endroit qui discutent de beaucoup trop de choses pour pouvoir facilement lutter contre le harcèlement, contre la propagande terroriste. Lui-même ne va même pas sortir de cette situation-là ! On voit aujourd'hui que Facebook, à la place de diminuer en taille, rachète et fusionne différentes entreprises. Maintenant on a WhatsApp et Instragram qui ont rejoint le groupe Facebook, alors que c'est le processus inverse qu'il faudrait faire. Il faudrait compartimenter tout ça pour faciliter l'organisation collective de ces espaces-là.

Pascale de la Tour du Pin : On fait comment ? À vous écouter, il n'y a pas de solution.

Arthur Messaud : Il n'y a pas de solution, si ! Il n'y a pas de solution à la place de Mark Zuckerberg, par exemple, qui était invité cette semaine par Emmanuel Macron, reçu comme un chef d’État. Monsieur Macron s'imagine que Zuckerberg va être la solution, va apporter une solution. Non, leur système est fondamentalement vicié et ne pourra pas être une solution aux problèmes qu'on rencontre sur Internet.
La solution c'est de permettre aux gens de partir de ces plateformes fondamentalement nocives pour aller sur d'autres plateformes de plus en plus nombreuses, beaucoup plus petites et à taille humaine qui, elles, peuvent gérer de façon cohérente le harcèlement, les conflits. Ce n'est qu'en diminuant la taille, en revenant à des structures humaines, comme était Internet avant, que l'on y arrivera.

Pascale de la Tour du Pin : Mais les géants d'Internet sont-ils d'accord avec vous ? Enfin, c'est inenvisageable puisque vous parliez effectivement de fusions, du fait qu'ils cherchent à devenir de plus en plus gros.

Arthur Messaud : Les géants d'Internet ne sont pas du tout d'accord. Ce n'est pas notre problème. Par contre, ce qui nous pose souci, ce sont les utilisateurs, les utilisatrices, est-ce qu'ils sont d'accord avec l'idée de partir de Facebook ? Aujourd'hui, ce qu'on voit, c'est que plein de gens sont très insatisfaits de Facebook, notamment à cause de tous les scandales qu'on a en matière de données personnelles, par YouTube pareil, par Twitter où il y a un climat extrêmement anxiogène.

Pascale de la Tour du Pin : Ce sont les utilisateurs qui doivent agir ?

Arthur Messaud : Les utilisateurs n'aiment pas ces plateformes mais on voit bien qu'ils ne partent pas. Il ne partent pas parce qu'il y a un vrai problème d'enfermement : partir de ces plateformes c'est souvent se couper, s'isoler de sa famille, de ses amis, de ses collègues. Cet enfermement n'est pas un enfermement qui est naturel. Techniquement c'est un enfermement qui est entretenu par ces plateformes pour nous menacer, pour nous dire « soit vous restez avec nous, vous vous soumettez à notre surveillance économique, à notre publicité, soit vous partez et vous perdez vos amis ». Alors que techniquement, en matière de technique du Web, la loi pourrait parfaitement et simplement imposer à ces plateformes la possibilité que l'on puisse partir de Facebook, par exemple pour aller ailleurs, dans un endroit plus petit, et continuer à parler avec nos amis. On pense que ça c'est la vraie solution de fond. La solution proposée aujourd'hui par Macron, avec une proposition de loi contre la haine en ligne qui se trompe complètement de schéma parce qu'eux pensent que ce sont les géants d'Internet qui vont apporter la solution alors que ce sont les géants la cause du problème.

Pascale de la Tour du Pin : Donc la solution va provenir des utilisateurs et c'est le message que vous souhaitiez passer ce matin. Merci beaucoup Arthur Messaud d'être venu sur le plateau de La Matinale ce matin. On revient dans une petite minute.

Enseignement supérieur, recherche et logiciel libre - RMLL2018

mar, 08/11/2020 - 17:50


Titre : Enseignement supérieur, recherche et Logiciel Libre
Intervenant·e·s : Oliver Rack - Loïc Horellou - Myriam Criquet, interprète - Guy Chouraqui
Lieu : Rencontres Mondiales du Logiciel Libre - Strasbourg
Date : juillet 2018
Durée : 1 h 04 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Penser les politiques publiques numériques par le biais de l'Université et des Grandes Écoles : quelles pédagogies et quels investissements ? Enjeux et voies de transition pour les communs numériques.

Transcription

Guy Chouraqui : Il est 18 heures 23, c’est une heure raisonnable pour démarrer ; notre retard n’est pas excessif et l’essentiel est marqué au tableau comme vous le voyez avec, sur l’écran, le titre, le propos, la thématique que nous allons aborder ensemble et les deux intervenants qui sont pour l’instant présents c’est-à-dire Loïc Horellou et Oliver Rack. Nous attendons peut-être Bibiana Boccolini, mais je n’ai pas de nouvelles donc nous verrons bien dans les minutes qui viennent si nous avons ce point de vue qui vient de l’Amérique du Sud.

Il y a un point particulier qu’il faut aborder au démarrage, c’est le fait qu’il y aura un intervenant qui s’exprimera en allemand mais dont l’intervention sera traduite ; c’est un confort très grand mais qui s’assortit d’une petite servitude qui fait qu’il faut nécessairement dans les interactions entre le public, entre les auditeurs et les intervenants, laisser un petit décalage pour que le temps de la traduction s’effectue et que le dialogue s’instaure de manière correcte. C’est un problème de fond qui n’a rien à voir avec le numérique et c’est bien lié à l’un des problèmes de l’Europe qui est la diversité des langues que nous parlons. Pour l’instant français avec Loïc Horellou, l’allemand et peut-être un peu plus tard l’espagnol avec Bibiana Boccolini.

La thématique générale est suffisamment bien exprimée par le titre. Le propos concerne l’université, l’éducation, les grandes écoles. L’impact du numérique, de la culture numérique, est à double tranchant comme c’est très souvent le cas : une facilitation des échanges, une facilitation donc de l’éducation, de la transmission des connaissances et, en même temps, des effets pervers qui sont liés au fait que la pression économique sur l’éducation est considérable. Durant ma carrière j’ai été témoin à l’université de Strasbourg du fait que le poids économique des grandes firmes informatiques lamine complètement les logiciels libres, à part des efforts individuels qui ont une portée forcément limitée.

Nous allons voir ces ouvertures, ces possibilités et, en même temps, ces difficultés que je qualifiais il y a instant d’effets pervers, nous allons voir cela par le portrait que va nous donner Oliver Rack à propos de l’Allemagne. Il se trouve qu’Oliver Rack est très intéressé par les aspects politiques de ces techniques numériques pour l’Europe et pour le monde entier et ce point de vue est très informé puisque vous avez, Oliver Rack, participé à énormément d’actions autour de l’open government, le gouvernement ouvert naturellement et, par votre voix, nous allons entendre un peu votre point de vue et la problématique que nous allons proposer à nos auditeurs. Je donnerai ensuite la parole à Loïc Horellou naturellement. Oliver Rack, à vous.

Oliver Rack : OK. Thank you. I’m Oliver Rack, at first I want to excuse myself that I can’t speak French that well – just « un peu comme ci, comme ça ». But I'd like to encourage us all to train more in English since now that the Brits are out of Europe, we can now all speak English much easier without any winner in this language war of the last decades. Now Germany and France are getting more and more in focus for collaboration from a European point of view, as a new nucleus of Europe. Therefore, we are here in a nice region where there is a good prosperous cross-border rich and may be we will see what this collaboration between France and Germany will be in the next years.
The open government. We are facing new times where information and knowledge are managed by private companies and there is a big shift of power from that and we don’t know how the next decades will look like in this matter but we know that government has the public value in its DNA. So this is where we can say “OK this is our fallback”, to have this as a fallback in technological transformations, we should empower it much more as a role-model for technological transformations. And therefore it’s good for the government to open up, to be transparent in the one way to see what this system of government and administration is running like to have the system safety on the one hand but on the other hand to have innovation dynamics and joint powers in knowledge between government, civil society, the science and research people but also enterprises too. And this is now more and more principle and culture that governments open up which was mainly implemented, or lets say driven, in the US and the UK. A strong driver was Barack Obama when he started the Open Government Partnership in 2011 together with the Brazilian administration in this time to roll out this principle of co-creation throughout the world, now there is like a network of competencies on the one side but also of evaluation. Open government roll outs in the participating member states. And now there are 75, France since a couple of years is a member of this network, Germany stepped in December 2016 in Paris when there was a big assembly.
What has this got to do with Open Source and Open Data? Quite a lot. Co-creation can really work. There have to be open systems in each matter. There has to be Open Access and Open Science to exchange this knowledge. And from this point of view, especially when it comes to Open Science, organizing information is one of the basic meanings of viewing human beings, therefore it should be a human right to have the tools for organizing information to knowledge, as accessible, as usable as possible. And also data for sure. And when it comes to artificial intelligence which is really quite a rising topic, I wouldn't say issue, a rising topic, there will be kicked a lot of new questions, also in a societal matter, what AI makes to societies. And for this it is very important to have a look inside how AI mathematics and heuristics are working, which data are used for it, which data are used for training AI. And so this would be a good deal to have this as open as good as possible.

Myriam Criquet, interprète : Nous allons maintenant traduire ce qui a précédé. Oliver Rack nous a parlé de l’Open Government en nous expliquant que nous sommes en train de faire face à de nouvelles problématiques et ces nouvelles problématiques interrogent le pouvoir. Nous ne savons pas, bien sûr, où est-ce que nous allons aller, mais ce que nous savons c’est que les technologies de l’information vont s’imposer aussi aux gouvernements et c’est pour ça que les administrations s’y sont intéressées.
Le savoir, le partage des connaissances, a intéressé les gouvernements et la société civile mais aussi les entreprises. Il y a de plus en plus d’initiatives qui se produisent tout autour de l’Europe. Il y a des réseaux de compétences qui se créent mais aussi des réseaux d’évaluation.
La France et l’Allemagne ont créé ces réseaux et ces réseaux travaillent sur une co-création entre l’open source et l’open data. En fait, l’open source et l’open data sont des parties de l’open science et tout un réseau d’échange d’informations en est la base.
C’est une base qui devait être reconnue par tous parce que c’est en particulier la base des droits de l’homme. Et la data, particulièrement, est impactée, intéresse ces réseaux. C’est très important, en fait, d’avoir dans ces réseaux un regard sur ce qui se passe dans les mathématiques et de savoir comment ces data sont appréhendées par elles pour connaître les utilisations et celles qui sont positives.

Guy Chouraqui : Merci beaucoup pour l’écho que vous donnez à l’intervention d’Oliver Rack qui était faite en anglais et non pas en allemand comme je l’avais prévu, mais vous avez donné une image tout à fait exacte pour autant que je puisse en juger. Réaction.

Loïc Horellou : Réaction ou plutôt une autre série d’exemples qui vont être tirés de ce que je connais. Je suis enseignant dans une école d’art et je suis designer, à côté, d’interactions, d’interfaces, etc. Les écoles d’art, à la différence de gouvernements, de régions entières ou de pays, sont des petites administrations et comme toutes les administrations, les petites structures, on est aussi amené à travailler avec des données, des logiciels, etc. Dans les structures de l’échelle de celle d'où j’interviens, il se trouve que le responsable informatique ou la responsabilité du réseau informatique de l’école, il n’y a qu’une personne qui doit gérer des questions très pratico-pratiques de comment les gens réussissent à avoir une connexion wifi qui fonctionne et au choix des logiciels qui vont être faits par l’école.

Et malheureusement, sur ces choix-là, ce qu’on constate c’est que la plupart du temps on va vers les solutions les plus faciles, les plus clefs en main qui sont celles amenées par les grands groupes informatiques : sur tout ce qui va être de l’ordre du travail collaboratif on va souvent s’orienter vers des plateformes Google ou Microsoft Office. Du côté de la Haute École des arts du Rhin, c’est Microsoft qui a été choisi puisque la société avait pu amener la garantie que les serveurs seraient hébergés sur le continent européen. Donc voilà ! Les choix de logiciels qui sont faits sur des structures de 400, 600, 700 usagers sont faits comme ça. Et du côté de mon activité de designer, c’est ce que je pouvais constater aussi sur des petites collectivités, des petites villes, c’est-à-dire qu’elles, elles ont un ou deux agents de la mairie ou un ou deux employés qui ont un regard plus ou moins pertinent ou plus ou moins critique sur la manière dont on va utiliser ces outils-là, et puis les choix sont faits par ces personnes-là. En général il y a la question de budget qui rentre en ligne de compte et après tout le monde, en fait, bricole un petit peu.
J’expliquais tout à l’heure qu’on a travaillé il y a deux ans avec les médiathèques de Strasbourg sur la question de leurs fonds bibliographiques et les notices. Et alors qu’on est dans une période où les systèmes se complexifient de plus en plus, on a de l’échange de données dans tous les sens, on parle d’API [Application Programming Interface], etc., j’ai découvert à ma grande surprise que les réseaux de médiathèques, pour s’échanger des informations entre eux, utilisaient toujours un format de fichier qui s’appelle le MARC1 [MAchine-Readable Cataloging], qui a plus de 40 ans, qui avait été créé par la bibliothèque du Congrès des États-Unis dans les années 70, et qui est un format qui paraît, quand on ouvre le fichier, complètement antédiluvien avec un encodage ISO qui ne ressemble à rien, donc il faut trouver des analyseurs qui ont été bricolés par des responsables de médiathèques dans leur coin, etc. Et c’est vrai que j’ai l’impression qu’on est dans un monde où on parle de très grands systèmes et au final la sectorisation, la compartimentation de tout un tas de structures fait que beaucoup de gens se retrouvent à bricoler et à prendre des décisions dans leur coin sans avoir connaissance d’initiatives qui vont voir des impacts, qui vont permettre des grandes ruptures techniques à des échéances énormes.

Guy Chouraqui : On peut peut-être maintenant donner le temps de retransmettre à l’intention d’Oliver Rack l’expérience que Loïc vient de nous dire ; donc à l’intention d’Oliver Rack, merci.

Myriam Criquet, interprète : Loïc Horellou teacher in the Haute École des arts du Rhin… [Traduction en anglais de l'intervention précédente, NdT]

Oliver Rack : Yeah, yeah, should turn this scale structure, but there are also financing problems in bigger scale structures. Sure the transformation, this digital transformation is not something which comes for free. And we have one big partner, this is the European Union, which has strong interests in a European way of digitalization. And also in digitalization there is the chance of cohesion and convergence of the European Union, there is a new field where there can be European standards, stuff like this. So we have for example the field of e-government, we have the field of how can we harmonize or standardize meta-data structures across Europe and for example the INEA2 wich is the Innovation and Networks Executive Agency is strongly interested in having the standards, they are giving grants for that. So I think the one thing is we don't know what will be the best standards so there is a lot of research currently, but this is nice and also the small places and the small institutions can apply for some grants. So when it comes to digitalization, it's not only a technical question, for sure it's an all political question what way digitalization runs, but it's also a question of building up capacities in technological issues but also in let's say fund-raising issues. When you do something in digitalization in the institutions you should build up a good fund-raising culture and structure so you can take part in this big European process. They currently are the strongest in financing besides the business development financing in digitalization like the French techs3, but in research and in implementing digitalization in the public sector issues, it is mostly to find in the European Union.

Guy Chouraqui : Merci.

Myriam Criquet, interprète : Oliver Rack a parlé de l’aspect financier. Bien sûr la transformation numérique est une question à laquelle l’Union européenne porte un grand intérêt et la digitalisation est un terme qui l’intéresse aussi par rapport aux standards européens que l’on pourrait avoir. Des standards européens qui seraient à la fois pour le e-gouvernement mais aussi pour harmoniser les standards des données et sur ce thème il y a quelque chose qui a un fort impact.
Oliver Rack est d’accord avec Loïc Horellou sur la question du financement. La question, en fait, c’est que nous n’avons pas aujourd’hui, nous ne connaissons pas aujourd’hui la bonne façon finalement, la façon unique de fonctionner. On se rend compte que la question de la solution numérique ce n’est pas seulement une question technique, c’est aussi une question qui est politique et financière et les véritables interrogations sont celles qui portent sur les choses suivantes : comment construire, en fait, les capacités à pouvoir faire cette transformation numérique et comment ensuite arriver à les financer. Et en fait la recherche, comme les administrations, devront passer par des business développements.

Guy Chouraqui : Avec ces séries de points de vue et les traductions que vous venez de nous donner, il s’est passé presque une demi-heure et sans doute, vu les sujets brûlants qui ont été abordés à la fois politiques, économiques et techniques, l’auditoire aurait sûrement le désir de s’exprimer à son tour. Vous pensez qu’on peut donner effectivement la parole à l’auditoire à ce stade de la conversation ?

Loïc Horellou : Si je peux juste ajouter une remarque sur ce qui vient d’être dit et après je pense qu’effectivement…
Oui, je suis tout à fait d’accord sur ces questions, la question des fonds à trouver pour pouvoir développer, tant dans l’enseignement supérieur que les administrations, etc. Ce qui est quand même génial c’est qu’on se rend compte qu’en fait des structures privées aussi grosses que Microsoft, Google, Apple, etc., sont prêtes à amener leurs solutions gratuitement et que ça génère une espèce de distorsion de concurrence absolument gigantesque à l’égard de structures locales privées également qui, elles, ne peuvent pas se permettre de donner leurs outils ou leurs solutions ou leur expertise parce qu'elles ne s’en sortiront pas. Là où les très grands groupes sentent bien qu’ils vont avoir un levier. Si je prends les étudiants qui sont tous sur une solution Office du côté de notre établissement, là on a accès à un abonnement gratuit, peut-être que certains vont finir par payer, à un moment ou un autre, 30 ou 40 euros l’année pour avoir accès à des outils qui leur paraissent assez intéressants. De même chez Google pour pouvoir avoir de l’espace de stockage sur leur drive, etc. Ce qui fait que là ils ont un public captif qui est super. Il y a eu des énormes partenariats signés par l’Éducation nationale en France, je crois que c’était avec Microsoft aussi.
On a, du côté des écoles d’art, les mêmes types de problèmes avec Adobe qui, en plus, est dans une situation de quasi-monopole sur les solutions qu’il amène. En fait il y a très peu de culture du logiciel libre, des solutions annexes qui existent, chez les décideurs et les administrateurs, etc. Je le vois dans l’école où j’interviens : on a tenté, avec certains collègues, d’avoir du débat, de sensibiliser l’administration de l’école à ces questions et on se rend compte qu’au moment de prendre la décision on va quand même vers la solution qui parait la plus simple, la plus facile, la plus immédiate, qui est de passer par des grands groupes au détriment des données qu’on pourrait générer, au détriment de ces histoires de captivité des usagers, etc. Il y a quelque chose de l’ordre de la collecte de fonds et vraiment de la médiation de ces questions-là et de la sensibilisation des administrations et des décideurs qui paraît essentielle.

Myriam Criquet, interprète : Loïc Horellou says he is OK with you… [Traduction en anglais de l'intervention précédente, NdT]

Oliver Rack : Yeah, there is a lot of truth in, so this is why I think that the public responsibility should be engaged and empowered to give us alternatives. There's nowhere written that a public sector driven or a public ownership driven software should be not as good as a private. We have public financed television, which is mostly better than the private television! So there are ways out, but we are just starting with it, we maybe are starting a little late, but I think this should be really a task and it's a big task, maybe this is only a task that can only be solved on a European level, that we have alternatives in software, in platforms, which is also more important because on platforms, software are built on, so the dependency from other markets and from other economies, from foreign economies is scaling there. And this is what the European Union is trying with FIWARE4 as a platform5 under European Public License for smart cities, because they have identified this problem, and so it should be in other topics too. One big issue is like social media platforms, where I say: what is the difference between social media and television? It’s the kind how media are organized these days. Why shouldn't this be like ARTE, a public financed or co-financed – but I give some fees it's OK? But in a libre way of running like our European culture as US are. So I know what you are saying, these are the real issues, it can't be only solved on the shoulders of community, of developers. It’s smaller the use case is, the harder it is to have a good maintenance software so there should be a public duty in it.

Myriam Criquet, interprète : Oliver Rack nous a expliqué qu’il partage ce que pense Loïc. La responsabilité du public doit être engagée et il faut effectivement faire monter en capacité et en compétences les personnes qui sont des personnes publiques, des décideurs, sur les alternatives qui existent aux logiciels privateurs. Il n’y a pas, en fait, de fatalité à ce qu’on utilise des logiciels privateurs et il pense qu’on pourrait faire un parallèle entre la télévision publique et la télévision privée. La télévision publique, selon lui, est de meilleure qualité que la télévision privée et, en fait, l’éducation aux alternatives aux logiciels privateurs, donc le logiciel libre, est déjà commencée. Bien sûr c’est un gros travail, mais ce travail doit se faire avec l’Europe qui pense non seulement en termes de logiciels mais aussi en termes de plateformes. En termes de plateformes, pourquoi ? Parce qu’en fait il y a une dépendance aux autres marchés, notamment aux économies extérieures à l’Europe qui se nichent là, donc l’Europe est en train de penser une licence publique européenne pour les Smart Cities et elle pense aussi aux plateformes de réseaux sociaux.
La différence entre les réseaux sociaux et les télévisions, c’est surtout la façon dont ils sont organisés. Pour lui le Libre ne peut pas résider seulement, ne peut pas simplement peser sur les épaules, dit-il, d’une petite communauté de développeurs, c’est une question dont l’Europe doit aussi s’emparer.

Guy Chouraqui : Si vous êtes d’accord, je demande au public. Nous avons le temps maintenant pour des réactions de l’auditoire qui ne peuvent pas manquer vu la diversité et la profondeur de tous les problèmes qui ont été présentés à travers l’exemple d’une école d’art et à travers l’exemple de l’expérience de Oliver Rack. Donc aux auditeurs de s’exprimer pour l’une ou l’autre question.

Public : J’entends parler de captivité du public par rapport à Microsoft et Google, par rapport à des formats qui seraient plus faciles à prendre et, du coup, et plus jolis à regarder. Je pense que c’est un mauvais calcul ; le fait que ce soit gratuit ce n’est pas une solution. Le logiciel libre est souvent aussi gratuit dans plusieurs cas. En fait, ce qui se passe, c’est qu’on n’a pas abordé la notion de pérennité des données d’une part et aussi des données qu’on va fournir à tous ces GAFAM. Par l’intermédiaire, l’utilisation du logiciel libre, tout ça est exclu. C’est-à-dire qu’on ne va pas laisser de données personnelles à ces GAFAM, d’une part, et d’autre part la pérennité des données est assurée. Donc en fait enfermer l’utilisateur dans un format propriétaire, c’est l’enfermer dans l’utilisation de données à court terme. Si vous voulez utiliser des données à long terme, il faut évidemment choisir le logiciel libre.

Loïc Horellou : Oui. Je suis tout à fait d’accord. Je relatais l’exemple de ce qui se passe vraiment dans la tête des gens qui sont en situation de prendre ces décisions-là et c’est très difficile de les faire évoluer sur ces questions-là.
La seule raison qui leur a fait choisir Microsoft à la place de Google, c’était cette question de serveur européen, donc il y avait quand même un embryon de conscience de la localisation des données, mais pour tout le reste c’était assez ardu. Il y a vraiment une question de sensibilisation des décideurs finaux et des gens qui prennent des décisions qui sont assez peu exposés, en fait, directement à la question du Libre. On est plutôt, il me semble, sur des questions d’outils métier. C’est-à-dire qu’à un moment les gens ou les structures ou les DSI ou les administrations quand ils ont un outil métier qui leur convient, qu’il soit libre ou privé, ils le gardent, parce qu’en fait ils mettent tellement de temps à évoluer et à transformer leur usage qu’en fait ils deviennent assez feignants avec ça ou plus très curieux parce que ça fait beaucoup de travail après. Ils ont été nourris à des solutions Microsoft pendant des décennies, ils ont été nourris avec des ActiveX dans Explorer pendant des décennies, etc., et c’est très dur de les faire sortir de ces systèmes-là. Je parle sur les petites structures.

Il n’y a pas longtemps on a eu à rencontrer la DSI de l’université Strasbourg pour tout un tas de choses, notamment la question du réseau, l’accès fibre optique, etc., et quand vous avez des DSI bien en place avec tout un tas de spécialistes et de spécialités là-dedans, je pense que c’est beaucoup plus simple, en fait, d’évoluer sur ces usages-là. En général on se rend compte que, de toute façon, des outils et des solutions libres sont beaucoup plus employés dans ces contextes.
Mais sur les petites structures, c’est là qu’Oliver Rack a raison, il manque probablement une initiative à grande échelle de type européen ou au moins à échelon national pour mettre en évidence des solutions libres, open source avec une pérennité de données et des formats ouverts, mais qui soit portée par des acteurs de suffisamment grande échelle pour que les gens soient rassurés sur ces outils-là, parce qu’en fait on se rend compte qu’il y a beaucoup de crainte chez les gens qui sont en situation de prise de décision.

Myriam Criquet, interprète : Loïc told that… [Traduction en anglais de la réponse de Loïc Horellou, NdT]

Public : Je vais poser ma question en anglais parce que c’est plus une réaction à Oliver.

So Oliver, I totally agree with what you are saying, but in the same time there is a kind of a discrepancy, between European policies that go towards neoliberalism and policies that go toward free software. I'm well aware that free software and open source is compatible within a neoliberal system, but still I think that there is a tension. How do you imagine that it could be resolved?

Oliver Rack : This depends on the critical mass because it is a political decision. In the administration of the European Union, you have like in every administration responsibilities for economic development, for transatlantic cooperation and on the other side you have responsibilities for public good, public administration and public servants. So it's not just one policy, it depends, what the council decides, where the road map runs too. So it's up to us to showcase open solutions, to advertise them, to have a critical mass in these questions; that this critical mass can be mirrored in our representatives in the Parliament. So this is the questions, but I think that we have a better mixture than like in the US on this question, but we have to maintain this political opinion and this European position because I think there is really a space in this transformation where Europe can find its place. It's another kind of economical development, we have a tradition in, we call it "Technikfolgen", that is the outcomes of technology. We have a special culture in Europe, especially in Germany and France, so this can be somewhen also an advantage in this geography of Europe when people say ah its good for us to live here, because there's a European way in development, it's not an Asian or Chinese way, it's not a North American US way, it's a European way. So this should be maintained that we keep this track, I think the track is quite OK, currently.

Myriam Criquet, interprète : Une personne dans l’assistance a posé une question à Oliver, en anglais, en lui disant qu’elle était totalement d’accord avec lui mais qu’il y avait une tension, semble-t-il, entre les politiques mises en place et l’open software et le logiciel libre.
Oliver a répondu que l’administration avait ses responsabilités, prenait ses responsabilités, parlait beaucoup de développement économique et qu’il y avait en fait plusieurs politiques : les politiques pour le développement économique, les politiques sur le bien public, sur les administrations et sur les services. Pas une politique unique. En dehors de cela c’est à nous de nous prendre en charge et de montrer des cas d’usage, d’ouvrir des solutions et puis de faire une masse critique qui pourrait influencer nos représentants.

Nous avons, selon lui, à maintenir cette position particulière qu’a l’Europe et cette opinion politique particulière des Européens. Ce n’est pas simplement et seulement une question économique. Nous avons une tradition et une culture spécifique en Europe, spécialement en France et en Allemagne, et c’est cette culture spécifique, en plus de notre territoire, qui peut être un avantage pour le logiciel libre.

Public : I have a question for Oliver. My question is as follows, some months ago, actually I conducted some audits on government websites in Germany and French one as well, and I've been surprised to see that on German websites, for example, you don't have any tracking software such as Google Analytics, which are installed on this. And when I conducted my audit I found no government website in Germany using solutions such as Google Analytics where actually in France I found some. And my question was as follows: do you have some specific guidelines in Germany when you are working in the public sector, when building a web site? Do you have some specific guidelines which are saying, for example: “you should not use any specific solution, or you should use only free software or open source solutions”. That's my question, because I looked for France and couldn't find such a guideline and I was wondering if in Germany you have some? And what is the name of these guidelines if it exists? Thank you.

Oliver Rack : I'm not so deep in this question, but there is the General Data Protection which is a guideline of what has to be, what has to be the state of the art in privacy. And you think there are better protections in Germany on the governmental website than in France? OK! That's interesting. No, for sure there are guidelines when it comes to accessibility, I know from these guidelines, there are also European guidelines. But, how the privacy is translated in work papers, how you have to build the website, I don't know.

Loïc Horellou : De mon côté je sais juste qu’effectivement ces questions de Google Analytics on les voit fréquemment apparaître dans les cahiers des charges de certaines commandes publiques en France. Donc il y a une demande de ça parce qu’à nouveau c’est probablement le système dont tout le monde a entendu parler !

Oliver Rack : How many websites did you check?

Public : 200.

Oliver Rack : Oh, really!

Public : Yeah 200 actually, I just find the website which was indexing let's say all the German government websites and I just send a bot on all of them in order to see which tracking code was installed on the source code, I did the same thing for France. And I have been surprised to see this huge difference which was really; in Germany you have zero Google solution, whereas for France you still have some websites which are still carrying the tracking count, they do a lot of cleaning but there are still some. And I was surprised to find that out, and I wanted to know if it's more privacy awareness or if it was more specific guidelines you had. Thank you.

Oliver Rack : em>For sure, in Germany privacy is a really strong culture, this comes from history, it comes from the Third Reich and it comes also from East German history so that there have been strong maintenance of the citizens. So the General European Data Protection is mainly influenced from German activists. So this may be the reason, but now we have all the same law. Did you check it before the… OK. Do you want to check it now again? Aha, but this would be interesting!

Myriam Criquet, interprète : Il a été posé une question à Oliver. Il y a quelques mois, une personne dans l’assistance a bénéficié d’un contrat, d’un audit pour le gouvernement allemand. Elle devait regarder les trackers qui étaient sur les sites web du gouvernement. Elle a fait une comparaison entre ce qui se passe en France et ce qui se passe en Allemagne et s’est rendu compte qu’en Allemagne il n’y avait pas de trackers. La question qu’elle a posée est : est-ce que vous avez, en fait, des sortes de guides à suivre ou pas ?
Oliver a répondu que le Règlement général sur la protection des données6 formait peut-être les guidelines, les lignes directrices, et que c’était aussi l’actuel état de l’art en la matière, mais que, à sa connaissance, il n’y avait pas d’autres guidelines. Il se rappelle des guidelines, des lignes directrices sur l’accessibilité.
Google Analytics semble apparaître en France, nous a dit Loïc, sur les offres publiques de façon générale.
Cela vient peut-être, nous répond Oliver, du fait que ces 200 sites qui ont été regardés par la personne du public montre qu’il y a une plus grande conscience, une plus grande culture de la vie privée en Allemagne qui vient du fait qu’il y a eu, dans l’histoire en Allemagne, une période où il y avait donc l’Allemagne de l’Est et l’Allemagne de l’Ouest et le RGPD est venu en grande partie de l’intervention d’activistes allemands.

Public : À mon sens il y a une question, quand on parle d’Enseignement supérieur de Recherche et de logiciel libre qui ne doit surtout pas être oubliée, quand il s’agit d’expliquer pourquoi le logiciel libre est important dans les universités et les écoles dont les écoles d’art, c’est ce que permet le logiciel libre comme ouverture, élargissement de la porosité entre l'éducation, l’enseignement, la recherche et le développement. C’est-à-dire que les laboratoires de recherche publics dans les universités ainsi que tous les chercheurs qui peuvent travailler, comme Loïc, dans des écoles d’art ou Anne qui est là, Anne Laforet, le logiciel libre en étant utilisé par les enseignants et les chercheurs qui peuvent eux-mêmes contribuer à ces logiciels, eh bien ça permet de vraiment créer ce cercle vertueux, à mon sens, qui peut, du coup, profiter à l’intégralité de la société et non pas à des sociétés privées particulières. C’est, à mon sens, l'une des questions majeures de ce soir.

Loïc Horellou : Une réaction. Ce qui se passe en école d’art, tout à l’heure on parlait du repas de ce soir, je pense qu’en école d’art beaucoup de gens sont un peu flexitariens. C’est-à-dire que plein d’étudiants, d’enseignants ont envie du bien-être de l’humanité, mais le problème c’est que dès qu’il faut évoluer sur nos méthodes et changer un petit peu ce qu’on fait, ça devient plus compliqué.
Beaucoup de gens sont quand même prêts à utiliser des solutions privées parce qu’elles paraissent être les plus faciles et les plus immédiates et cette question des logiciels libres est plutôt prise en compte par les étudiants qui sont les plus pointus, les plus avancés et dans ces réflexions et dans l’usage des outils numériques informatiques.
Ce qu’on essaye quand même de signaler à la masse des étudiants avec certaines personnes dont Anne qui est ici, c’est que ce qu’on constate en particulier dans le champ artistique c’est qu’en fait un logiciel c’est un outil et que cet outil-là, en général, il est développé avec une pensée de la personne qui l’a créé. À un moment, utiliser des logiciels qui sont utilisés par des millions de personnes, eh bien on a des millions de personnes qui pensent de la même manière et qui font des choses de la même manière. Et particulièrement dans le domaine des écoles d’art où on essaye d’avoir une pensée par et pour la création, ça peut devenir compliqué. C’est-à-dire qu’en fait on voit trop fréquemment des nouvelles fonctionnalités qui émergent dans des outils Adobe par exemple et qui sont immédiatement adoptés par la plupart des utilisateurs. On a l’impression qu’ils ont fait quelque chose de super nouveau et que c’est génial et fait ils ont appuyé sur un bouton de la nouvelle fonctionnalité. Et ça c’est quand même aussi très compliqué d’en faire prendre conscience aux étudiants et, par extension, aux gens qui vont être responsables des achats dans les écoles.

Guy Chouraqui : Voilà. Encore une question ?

Public : La traduction.

Guy Chouraqui : Oui, l’interprétariat.

Myriam Criquet, interprète : Someone asked a question… [Traduction en anglais des propos précédents, NdT])

Guy Chouraqui : Puis-je, à titre personnel, mais je suis sûr que je me fais l’écho de beaucoup d’entre vous, demander à l’interprète, à la traductrice, de prononcer son nom, car elle a fait un travail que je considère comme remarquable dans l’improvisation en temps réel, le temps réel qui est un challenge pour tous les informaticiens. Vous avez donc fait un travail si bon que je serais très heureux que vous prononciez votre nom à haute voix, à côté de ceux de Loïc Horellou et d’Oliver Rack. Madame ?

Myriam Criquet, interprète : Bonjour. Je m’appelle Myriam Criquet et je suis de l’association Montpel'libre7. Je suis désolée, j’ai fait ce que j’ai pu et j’ai essayé de faire au mieux.

Guy Chouraqui : J’ai une très grande gratitude pour le travail que vous avez effectué ; je vous en remercie personnellement et aussi au nom de tout le monde.
Nous avons atteint la limite d’une heure, largement dépassée d’ailleurs depuis quelques instants et, à moins qu’il y ait quelque chose qui vous empêche de dormir par la suite si vous ne le dites pas maintenant, nous allons nous séparer en remerciant beaucoup les intervenants et, une fois de plus, notre interprète. Merci.

[Applaudissements]

Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ? - Félix Tréguer

mar, 08/11/2020 - 10:27


Titre : Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ?
Intervenant·e·s : Félix Tréguer - Edward Snowden, voix off du traducteur - Julian Assange, voix off du traducteur - Olivia Gesberg
Lieu : Émission La Grande table, France Culture
Date : 20 septembre 2019
Durée : 32 min 40
Écouter le podcast
Présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Félix Tréguer - Licence Creative Commons Attribution 3.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les révélations d'Edward Snowden ont-elles provoqué plus qu'une prise de conscience ? Que nous disent-elles de l'utopie déchue d'Internet? Félix Tréguer, co-fondateur de la Quadrature du Net, nous en parle dans L’utopie déchue(Fayard, 2019).

Transcription

Olivia Gesberg : Alors qu’Edward Snowden publie ses Mémoires vives, autobiographie de l’homme qui a tout risqué pour dénoncer la surveillance globale selon Le Seuil son éditeur, ces révélations ont-elles provoqué plus qu’une prise de conscience ? Les États-Unis ne menacent-ils plus d’être à la tête d’un système de surveillance de masse en collectant nos données ? En d’autres termes, Internet et libertés publiques, depuis Snowden qu’est-ce qui a changé?
On en parle avec notre invité, fin connaisseur du milieu, sociologue et hacktiviste comme il le dit, c’est-à-dire hacktiviste avec un « h », un peu hacker sur les bords, chercheur associé au Centre Internet et Société du CNRS, cofondateur de La Quadrature du Net1. Félix Tréguer bonjour.

Félix Tréguer : Bonjour.

Olivia Gesberg : Vous publiez aujourd’hui chez Fayard L’utopie déchue - Une contre-histoire d'Internet du XVème-XXIème siècle. Vous remontez loin !

Félix Tréguer : Oui. Je reviens à la création de l’imprimerie qui correspond aussi à la genèse de l’État moderne pour retracer un peu les stratégies de contrôle des moyens de communication et de comprendre un petit peu comment Internet a pu en faire les frais.

Olivia Gesberg : Ça a toujours fonctionné de la même manière ? Chaque fois qu’un moyen de communication est né on a tenté de le contrôler ?

Félix Tréguer : Il y a eu d’abord des appropriations subversives, contestataires, par des groupes qui contestaient les pouvoirs et puis, effectivement, la mise en place de logiques similaires à travers les époques pour réamorcer des dispositifs de surveillance, de censure, de propagande, donc on assiste, effectivement, à des mécanismes un peu similaires avec Internet.

Olivia Gesberg : Et pourtant, l’imprimerie reste une invention géniale ! Ce n’est pas vous qui publiez aujourd’hui un livre qui allez dire le contraire.

Félix Tréguer : En effet.

Olivia Gesberg : Est-ce que vous en diriez autant d’Internet ?

Félix Tréguer : Est-ce qu’Internet reste une invention géniale ? J’avoue que je suis dans une période un petit peu sceptique. Je crois qu’on a absolument besoin des livres. Je pense que c’est un moyen de communication beaucoup plus low tech comme on dirait, c’est-à-dire une technologique beaucoup plus simple, et je crois de plus en plus que dans les technologiques extrêmement complexes, Internet en est une, il y a des formes de pouvoir qui s’immiscent et des problèmes essentiels liés à ces technologies. Ce qui est sûr aussi c’est qu’Internet comme réseau et l’ordinateur qui compose ce réseau, l’ordinateur en tant que machine, restent des outils qui sont le fruit d’une époque, en fait, et on aurait pu penser une machine alternative.
Internet a constitué un réseau informatique alternatif qui portait beaucoup d’espoirs et de potentialités, mais il a été modelé par le monde saturé de rapports de domination dans lequel il a été introduit c’est pour ça que c’est aussi devenu un instrument de pouvoir, même s’il sert encore, évidemment, les mobilisations, les formes d’organisation, la libération de la parole de certains groupes. C’est l’outil dont on se saisit aujourd’hui pour porter ces revendications, porter ces discours contestataires. Peut-être qu’on aurait pu très bien le faire aussi avec des livres, avec du courrier. C’est une question que je me pose, en effet.

Olivia Gesberg : Vous parlez maintenant presque comme mon grand-père alors que vous n’avez même pas 40 ans, que vous faites partie de ceux qui y ont cru, de ceux aussi qui dominaient la technologie. Imaginez ceux qui, en plus, ne la comprennent pas et ne la manipulent pas comme vous êtes capable aussi de le faire, Félix Tréguer, dans quelle incompréhension ils doivent être aujourd’hui. En 1989, quand le 3W2 voit le jour derrière Tim Berners Lee, quel âge avez-vous ?

Félix Tréguer : Trois ans.

Olivia Gesberg : Trois ans. Donc là c’est un peu le livre de la maturité qui rassemble quand même vos illusions perdues ; on va comprendre comment elles se sont alimentées, par quoi ces déceptions ont été nourries.
Internet est une technologie pensée à ses débuts, vous l’évoquiez aussi, comme libératrice, plutôt égalitariste ou émancipatrice. Ses concepteurs n’avaient pas prévu qu’elle ferait l’objet d’une telle instrumentalisation aujourd’hui ?

Félix Tréguer : Non. C’est peut-être ce qui surprend, en fait, lorsqu’on considère un peu l’histoire des enjeux politiques autour de l’informatique depuis les années 50/60. Je crois que ce qui change et ce qui conduit à l’apparition de ces discours pleins d’espoir et pleins de projets démocratiques dans les années 80, fin des années 80 et au début des années 90 avec l’apparition d’Internet et du Web, ce qui s’est passé c’est sans doute l’apparition d’une machine particulière, une incarnation particulière de l’informatique qu’est l’ordinateur personnel qui apparaît au début des années 80 et qui, du coup, transforme complètement la perception que l’on peut avoir de cette technologie. C’est-à-dire qu’avant, l’ordinateur c’était des grosses machines qui équipaient les grandes bureaucraties publiques et privées, donc c’était une machine associée, une technologie associée à l’ordre technocratique. L’ordinateur personnel porte la potentialité de distribuer le pouvoir, d’avoir cet outil extrêmement puissant entre les mains des individus, donc effectivement avec l’horizon d’une appropriation plus égalitaire d’une technologie extrêmement puissante, d’où de grands espoirs.

Olivia Gesberg : Le pouvoir et le savoir, c’est ça ?

Félix Tréguer : En effet. C’est vrai que dans les utopies internet il y a évidemment cette idée de pouvoir construire une bibliothèque universelle, transfrontière, qui recèlerait l’ensemble des savoirs de l’humanité sous forme numérisée. Moi, ce que m’a apporté un peu à cette recherche historique c’est de comprendre à quel point il y avait, je l’avais d’ailleurs un peu perçu dans mon expérience militante, une mémoire oubliée des luttes passées et de cette critique de l’informatique.
Peut-être que si cette histoire avait été mieux connue, on aurait su avoir des discours peut-être plus mesurés quant à l’aspect politique d’Internet et aux enjeux qui se nouaient dès les années 90 autour de cette technologie. Peut-être qu’on aurait pu voir que les risques de recentralisation – peut-être qu’on pourra revenir sur la manière dont tout cela se passe –, comment les formes de recentralisation de l’architecture qui sous-tend Internet étaient porteuses de graves dangers qui avaient été très bien repérés par les groupes militants des années 60/70 qui voyaient vraiment l’informatique comme une technologie dangereuse, d’où d'ailleurs déjà des scandales à l’époque autour des questions de surveillance, d’où la création par exemple de la CNIL3 en 1978 en réponse à ces scandales. Donc je pense qu’il y a un enjeu autour. C’est ce que j’essaye un peu de faire dans ce livre, c’est un outil de débat et c’est aussi une manière de retracer une histoire complexe parce que je pense qu’on agit mieux dans le présent lorsqu’on comprend cette histoire et la manière dont elle structure nos sociétés et nos manières de penser.

Olivia Gesberg : Certains ont donc un peu, à vous entendre, quand même pêché par naïveté ou par orgueil, des militants du départ ou des concepteurs trop naïfs, vous dites « gonflés par leur dédain du vieux monde, ces hackers ont ignoré les mises en garde de ceux qui les ont précédés ». C’était qui ces hackers ?

Félix Tréguer : Je pense à des personnages dont on parle souvent, pas tant hackers et je ne suis pas non plus hacker. C’est vrai que le qualificatif d’hacktiviste avec un « h » est un peu usurpé s’agissant de moi ; je ne suis pas quelqu’un qui maîtrise grandement la technique, j’ai beaucoup fréquenté des hackers à La Quadrature du Net et ailleurs. J’allais vous parler de John Perry Barlow qui est un des paroliers du Grateful Dead, icône de la contre-culture américaine, qui a ce célèbre texte, cette célèbre déclaration en 1996, alors que les États-Unis s’apprêtent à adopter l’une des premières lois de censure d’Internet, où il s’adresse aux géants du vieux monde et il fait la Déclaration d’indépendance du cyberespace4. Il y avait effectivement cette idée d’un espace qui était, par essence, impossible à réguler, à contrôler, qui, du coup, allait renvoyer les États et les grandes organisations industrielles aux poubelles de l’histoire. C’est l’un des discours peut-être un peu emphatique, d’ailleurs John Perry Barlow qui est mort l’an dernier a mis de l’eau dans son vin à la fin de sa vie en revenant notamment sur cette déclaration un peu tonitruante qui, en même temps, a captivé .

Olivia Gesberg : Et qui a capté l’esprit d’une époque aussi, l’élan, l’utopie qui pouvait être portée à ce moment-là.

Félix Tréguer : Absolument.

Olivia Gesberg : Du coup, les porteurs de cette contre-culture n’ont pas préparé suffisamment de garde-fous pour transformer le rapport de force. Ils ont acté dès le départ qu’ils allaient prendre le pouvoir avec cet outil citoyen, au lieu de penser aux failles qu’ils étaient déjà en train de laisser ou de créer ?

Félix Tréguer : Non, je ne leur ferais pas ce grief puisque je pense qu’alors même qu’ils étaient en train de nourrir cet imaginaire utopiste de cet affranchissement des veilles lois politiques de ce monde, ils étaient déjà dans la lutte, déjà dans le combat. De fait, comme je le disais, John Perry Barlow à l’époque est déjà engagé dans un combat juridique contre cette loi de censure qui, d’ailleurs, se soldera par un succès puisqu’elle aboutit, à l’époque, à une jurisprudence très favorable à la liberté d’expression sur Internet de la part de la Cour suprême des États-Unis, donc je pense qu’on ne peut pas faire le reproche à cette génération. Moi je m’y retrouve complètement, c’est ce que je dis dans ce livre, je m’inclus dans ce groupe de gens ayant entretenu des discours utopiques et qui, face aux discours techno-critiques qui étaient déjà opposés par certains intellectuels, certains militants, même s’ils restaient, malheureusement, un peu marginaux dans le débat, on leur a expliqué que c’étaient des luddites et qu’ils voulaient revenir à la bougie et ce genre de choses. Le grief n’est pas tant sur le fait qu’il y ait une démission et qu’on a oublié de lutter, c’est sans doute certaines œillères que ça a pu provoquer et la manière dont on a écarté des débats importants sur la technologie en tant que telle.

Olivia Gesberg : Vous dites qu’on ne peut pas comprendre ce qui se joue aujourd’hui si on ne pense pas Internet aussi en termes de nouvel espace public à la manière à la fois d’Habermas, tel qu’il le définissait, ou encore de Michel Foucault. Pourquoi ? Comment comprendre cet espace que l’État va tenter de contrôler ?

Félix Tréguer : Parce que je pense effectivement que ce concept d’espace public qui renvoie à l’espace de circulation des idées, des opinions et qui façonne, du coup, un peu les représentations que l’on se fait, les idées qui nous animent, cet espace public comme le décrit très bien Habermas a joué un rôle fondamental dans l’histoire de la démocratie, dans la démocratisation de nos sociétés. Du coup, il m’a semblé que c’était un terrain intéressant pour, justement, comprendre la manière dont il a toujours été soumis à des rapports de pouvoir, à des formes d’opposition entre pouvoir et résistance. D’ailleurs c’est une dimension que Habermas5 néglige un peu dans son histoire de l’espace public, son archéologie de l’espace public plus exactement qui est, en fait, sa thèse publiée en 1962. C’est un ouvrage qui a eu beaucoup d’influence. J’ai commencé ces recherches en le relisant et j’étais frustré, en fait, de voir à quel point justement ces questions auxquelles on se heurtait déjà s’agissant d’Internet, de censure, de surveillance, l’utilisation des droits de l’homme pour résister aux politiques de contrôle mises en place par les États, comment cette histoire était en fait négligée dans la trajectoire qu’il propose. Donc j’ai été lire beaucoup d’historiens, retrouver quelques archives qui permettent de vraiment mettre en exergue la manière dont l’espace public comme espace démocratique de nos sociétés est en prise à des rapports de pouvoir qui l’éloignent un peu de l’idéal démocratique qu’il est censé servir.

Olivia Gesberg : Vous racontez aussi comment les premiers à avoir alerté sur les dangers de l’informatique pour le droit à la vie privée sont les informaticiens eux-mêmes, déjà dès les années 70 il y avait eu une affaire avec le journaliste Christopher Pyle. C’était 60 ? 70 ?

Félix Tréguer : C’est aux États-Unis dans les années 70.

Olivia Gesberg : C’était aux États-Unis, les révélations qu’il a pu faire dans le Washington Monthly sur l’existence d’un programme de surveillance aussi des citoyens américains. Et c’est encore un informaticien qui va agir, Edward Snowden6, faire ses révélations. Dans ce livre Mémoires vives qui paraît aujourd’hui, son autobiographie, Edward Snowden revient sur son parcours d’informaticien employé d’une société privée sous-traitant les données des services de renseignement américain. Il raconte aussi comment il a mis à jour cette cybersurveillance des citoyens après le 11 septembre et il parle aujourd’hui encore d’un système de surveillance généralisée.

Edward Snowden, voix off du traducteur : Tout ce que vous faites, tous ceux à qui vous parlez, tous ceux qui vous intéressent, tout ce que vous lisez de mille manières différentes, ces choses sont capturées et contrairement à ce qui se passait avant, depuis des décennies, elles sont désormais stockées pour toujours.
Et puis il y a maintenant la capacité pour n’importe qui, une organisation criminelle, votre propre gouvernement, d’envoyer un code d’exploitation sur votre téléphone pour en prendre le contrôle. Ils peuvent voir ce que vous voyez sur votre smartphone. Vous avez payé pour l’avoir, mais c’est le hacker qui le possède.

Olivia Gesberg : Edward Snowden interrogé chez lui, en Russie, par les équipes de TF1, Edward Snowden perçu comme un traître par les autorités américaines. Est-ce qu’il reste pour vous un héros, même si le mot est un peu large ?

Félix Tréguer : Je n’aime pas le héros, le mot « héros » ne me plaît pas trop non plus, mais je pense, effectivement, que c’est quelqu’un d’extrêmement courageux, qui a pris des risques immenses pour porter à la connaissance du public la réalité des pratiques contemporaines en matière de surveillance.

Olivia Gesberg : Et donc ? Il est quoi pour vous ? Un lanceur d’alerte avant tout ?

Félix Tréguer : Un lanceur d‘alerte avant tout et, encore une fois, quelqu’un de courageux et très respectable et une figure extrêmement importante dans nos combats.
C’est vrai qu’à l’époque, en 2013, lorsque Laura Poitras et Glenn Greenwald, les journalistes avec lesquels Snowden a travaillé, font les premières révélations basées sur les documents fournis par Snowden, ça a déclenché une controverse mondiale, une prise de conscience jamais vue auparavant alors même que certains éléments avaient déjà été fournis par des lanceurs d’alerte depuis le milieu des années 2000 quant aux pratiques de la NSA. Donc ça a été un moment où, même si on était déjà dans une phase un peu de désillusion je crois, avant même l’arrivée de Snowden, on assiste, au moment des révélations, à une espèce de sursaut avec une controverse immense qui se noue et des espoirs très forts que cette controverse, que cette prise de conscience puisse aboutir justement à une transformation des politiques en la matière, à l’adoption de cadres juridiques qui puissent contraindre les agences de renseignement et la manière dont se déroule la surveillance massive d’Internet. Malheureusement, ces espoirs-là aussi ont été déçus.

Olivia Gesberg : La rupture n’est pas advenue. Ce n’est même pas qu’elle n’a pas été aussi grande qu’on aurait pu l’imaginer, c’est qu’elle n’est pas advenue. Il y a eu un début de prise de conscience, mais ? Mais quoi en fait ? On n’avait pas les outils pour changer les choses après ces révélations ou la volonté ?

Félix Tréguer : On avait bien évidemment les outils. Encore une fois je crois que s’il y avait la volonté politique et si le contexte politique était plus favorable, il y aurait tout à fait moyen de respecter les libertés publiques et de construire un Internet différent. On échafaude les solutions depuis 25 ans justement en réponse aux projets de loi répressifs qui sont proposés pour contrôler cet espace de communication, donc les solutions existent. Je crois que ce qui est s’est passé c’est une flambée antiterroriste en réalité, c’est, quelques mois plus tard, à partir de 2014 la situation en Syrie et l’instrumentalisation de cette situation pour promouvoir encore et toujours des projets de lois antiterroristes extrêmement attentatoires aux libertés publiques qui, s’agissant d’Internet, vont permettre de justifier des formes de censure toujours plus poussées, automatisées, privatisées — on pourra y revenir — s’agissant de la surveillance. Les attentats de Charlie Hebdo par exemple, en janvier 2015, créent un contexte dont le gouvernement de l’époque et notamment Manuel Valls se saisissent pour imposer cette loi qui est dans les cartons depuis un moment, mais le contexte politique n’existait pas pour la faire passer, donc sur le coup de l’émotion liée aux attentats il y a un contexte qui fait que politiquement on peut légiférer et venir blanchir des pratiques de surveillance massive qui existaient depuis des années mais qui existaient dans l’illégalité puisqu’il n’y avait aucune base juridique pour les encadrer et pour assurer leur constitutionnalité.

Olivia Gesberg : Est-ce que vous diriez comme Pierre Haski, le fondateur de Rue89, que Snowden incarne un changement de paradigme déjà, c’est-à-dire le passage de la surveillance ciblée, personnalisée, à la surveillance de masse ?

Félix Tréguer : Encore une fois Snowden a permis l’émergence d’un débat, de documenter l’état de l’art en matière de surveillance massive d’Internet autour des années 2010 en réalité, puisque certains de ses documents étaient plus anciens, étaient déjà un peu anciens. Mais, en fait, je crois que cette surveillance massive, exploratoire, où l’on capte les données de tout le monde pour, ensuite, retrouver des pistes et éventuellement des suspects, cette dimension-là, ce changement d’échelle dans la surveillance se fait de manière graduelle depuis les années 80. Déjà, à la fin des années 90, il y avait eu une controverse sur les pratiques de surveillance de la NSA et des agences alliées, un début de controverse aussi sur les pratiques des services de renseignement français, c’était la controverse autour du programme Echelon, dès 98, où un rapport du Parlement européen7 est commandité, documente cette surveillance. On envisage de protester contre ces pratiques menées par les agences américaines, on se rend compte que l’Allemagne, la France et le Royaume-uni font la même chose, on leur dit que ce n’est sans doute pas légal et qu’il va falloir mieux encadrer ces choses-là et puis 2001, crise antiterroriste, et tous les projets répressifs déjà envisagés par l’État profond depuis quelques années sont mis sur le devant de la table et passent dans le droit commun.

Olivia Gesberg : Vous évoquez par la suite aux États-Unis comme en France ou ailleurs l’adoption de plusieurs lois jugées liberticides, mais vous dites que ce que vous n’êtes pas tous parvenus non plus à ralentir c’est l’emprise des GAFAM, des GAFA plus Microsoft, sur nos vies privées et la manière dont ils peuvent aussi concourir à capter toutes ces données qui vont permettre une surveillance de la part de ces acteurs privés. Vous révélez aussi des formes d’alliance entre les États et ces acteurs privés, ces seigneurs du capitalisme numérique comme vous les qualifiez. Quand est-ce que ça s’est joué ces premières alliances-là et pourquoi ?

Félix Tréguer : Je crois que si on doit s’interroger sur l’évolution majeure intervenue depuis Snowden, c’est vraiment ce rapprochement-là. C’est-à-dire qu’en 2013, l’une des premières révélations de Snowden porte justement sur la collaboration de Yahoo, Facebook, Microsoft, Google, ces grandes entreprises américaines du numérique, avec la NSA, c’est le programme PRISM8 bien documenté à l’époque. S’ensuit une controverse immédiate où ces entreprises sont accusées de collaborer activement avec les services de renseignement américain, des démentis de leur part, le déploiement de solutions de chiffrement. Elles mettent en place des groupes de lobbyistes à Washington pour juguler les pouvoirs des agences de renseignement en la matière, en fait, en réalité davantage pour assurer un peu plus de transparence sur ces programmes secrets. Donc, là où je veux en venir, c’est la mise en scène d’une résistance et d’une opposition très forte entre ces entreprises qui restent un peu influencées par un idéal hippy, contre-culturel, californien et qui, du coup, ont cette image de marque-là, qui était passablement écornée par ces révélations, donc elles cherchent à la défendre et à vraiment se distinguer de l’appareil sécuritaire américain.
Très vite, dès 2014, ce qu’on voit poindre, dès 2015 en particulier dans le contexte antiterroriste, ce sont des pressions très fortes mises sur ces entreprises pour lutter contre la propagande terroriste. En réalité, lorsqu’on regarde aussi les chiffres fournis par ces entreprises, le nombre de requêtes émanant des autorités nationales pour l’accès aux données des utilisateurs de ces boîtes a grimpé en flèche de manière quasi exponentielle, donc on a vu des rapprochements toujours plus forts. J’ai le souvenir, par exemple, de Bernard Cazeneuve, ministre de l’Intérieur français, qui voyage dans la Silicon Valley en février 2015, quelques semaines après les attentats de Paris, qui va demander une plus grande collaboration de ces acteurs en matière de lutte antiterroriste.
Tout ça a mené à des évolutions très fortes qui se traduisent aujourd’hui par la présentation de textes au niveau de l’Union européenne, au niveau français aussi. Que ce soit sur le terrorisme, sur les discours de haine, on assiste à des rapprochements toujours plus forts où, en fait, les États cooptent ces entreprises pour assurer leur politique de censure. Ce sont les débats qu’on a aujourd’hui, par exemple sur les discours de haine ou sur le terrorisme. À mon sens, on crée des dispositifs, on demande à ces entreprises de développer des outils basés sur l’intelligence artificielle pour détecter et retirer automatiquement les contenus, ce qui va à l’encontre de toutes les revendications portées par les militants d’Internet depuis les années 90 qui, justement, s’appuient sur la loi de 1880 sur la presse, demandent une protection judiciaire de la liberté d’expression y compris sur Internet, et là on a une forme de privatisation. Ce sont ces entreprises qui paramétreront leurs filtres automatiques, souvent en lien avec des prestataires et ce qu’on appelle des tâcherons du clic, employés dans des pays à bas salaire, pour assurer les politiques de modération en lien avec ces machines.
En fait on a une reconfiguration des bureaucraties dédiées à la censure qui s’accompagne d’un recul extrêmement fort des libertés publiques. Aujourd’hui on est sur les questions de discours de haine, de terrorisme et je pense qu’on peut facilement prédire une extension de ces dispositifs à tout autre type d’abus en matière de liberté d’expression, sachant déjà que la définition du terrorisme est, par essence, très large et qu’elle peut déjà couvrir tout un tas d’actions, notamment d’actions militantes, qu’on n’associe pas du tout au terrorisme normalement.

Olivia Gesberg : À vous entendre ça va aller de mal en pis, ce n’est pas forcément très réjouissant !
Avec nous le sociologue Félix Tréguer jusqu’à 13 heures 30. Il est l’auteur de L’utopie déchue - Une contre-histoire d’Internet qui vient de paraître chez Fayard.

France culture, il est 13 heures 19.

[Virgule musicale]

Voix off : France Culture – La Grande Table – Olivia Gesberg.

Olivia Gesberg : On a évoqué ensemble la figure d’Edward Snowden, à savoir comment était le monde avant ses révélations, comment il était après, ce après on va continuer à en parler avec vous. Edward Snowden qui publie actuellement dans le monde entier et notamment en France, traduite et éditée par le Seuil une autobiographie Mémoires vives où il revient sur son parcours et sa vie aujourd’hui.
Il y a une autre figure de la révélation, pourrait-on dire, c’est celle de Julien Assange. À quoi ressemblait juste avant de l’entendre, Félix Tréguer, le monde avant les révélations WikiLeaks9 ?

Félix Tréguer : Je pense qu’il y avait déjà beaucoup d’éléments qui pointaient les dérives des guerres américaines menées sous les mandats de George W. Bush, mais là encore la puissance des révélations d’Assange et de WikiLeaks avec l’aide de la lanceur d’alerte Chelsea Manning qui est aujourd’hui encore en prison.

Olivia Gesberg : Elle a été arrêtée en mai 2010, vous le racontez, à la suite de ces révélations.

Félix Tréguer : Puis libérée par Obama et de retour en prison puisqu’elle refuse de témoigner contre Julien Assange qui lui-même a été arrêté en avril dernier.

Olivia Gesberg : Et qui est toujours réfugié ?

Olivia Gesberg : Non, justement, il a été rattrapé par la police britannique. Il était déjà en prison depuis sept ans, de fait, dans l’ambassade de l’Équateur de Londres et désormais il est dans une cellule d’une prison britannique.
Donc le monde d’avant WikiLeaks. WikiLeaks est un projet de transparence radicale qui vient mettre à mal le secret d’État qui, là encore, est complètement ancré dans la tradition démocratique et libérale au sens du libéralisme politique, puisque le secret d’État est assez consubstantiellement contraire à l’idéal démocratique, à l’idéal de délibération collective.
Assange, dès 2006, théorise une entreprise de journalisme et de transparence radicale, qui se matérialise avec WikiLeaks et qui déboule sur la scène géopolitique de manière fracassante en 2010 avec les fuites massives orchestrées, permises par Chelsea Manning, sur les guerres américaines et c’est notamment d’abord la vidéo qui montre l’assassinat de civils irakiens et de journalistes de Reuters en Irak, à Bagdad, par un hélicoptère et des soldats américains, puis les câbles diplomatiques sur la guerre afghane et irakienne et enfin les câbles diplomatiques, en décembre 2010, qui, là encore, révèlent les bruits de couloir et les négociations d’arrière chambre de la diplomatie mondiale.

Olivia Gesberg : Devant la caméra d’Arte, quand il témoigne et se raconte, il donne en tout cas le sentiment qu’il avait l’espoir que ces révélations allaient changer quelque chose. Écoutez.

Julien Assange, voix off du traducteur : Quand nous avons révélé que les trois dernières présidences ont été totalement infiltrées par les États-Unis, que les présidents ont été personnellement écoutés, quelle aurait dû être la réaction de la DGSE et des autres services secrets français ? Ils auraient dû immédiatement venir nous voir et nous demander « en savez-vous plus ? Comment avons-nous échoué à protéger le président contre l’espionnage américain », mais ce n’est pas arrivé. Pourquoi ? Je ne pense pas que les services de renseignement français soient des idiots. Ils savaient que c’était la première chose à faire, mais ils craignaient d’affronter les Américains. Ces préoccupations étaient tellement puissantes qu’ils ont préféré passer pour des victimes plutôt que de comprendre ce qui s’était passé.

Olivia Gesberg : L’espionnage par une puissance étrangère est-il terminé ? Est-ce qu’on peut dire que ce qu’espérait Julien Assange est arrivé ?

Félix Tréguer : Non, évidemment pas, ces choses-là se poursuivent et c’est de l’ordre des relations interétatiques depuis très longtemps. Il n’y a pas vraiment de raison que ça change. Ce que montre justement, sans doute, cette espèce d’indifférence opposée par l’État français à ces révélations, c’est le fait que ce sont des choses qui sont malgré tout complètement acceptées et normalisées dans les relations diplomatiques. Ces formes de surveillance c’est plus gênant lorsque ça concerne des populations civiles, des groupements militants qui militent pour les droits de l’homme.
Je pense que non, évidemment que ces formes d’espionnage continuent.

Olivia Gesberg : Publiquement on a l’impression qu’il y a quand même une prise de conscience qui a été réalisée, que des lois, des règlements ont été adoptés pour tenter de protéger notamment nos données personnelles. On pense au Règlement européen, au RGPD10, qui a mis en place un système de conditions générales pour les utilisateurs. Est-ce que tout ça est opérant pour vous ?

Félix Tréguer : Je pense que le combat juridique reste pertinent et indispensable. C’est notamment le champ d’action de La Quadrature du Net et de beaucoup d’autres associations de défense des droits de l’homme. Il est important d’occuper ce terrain et je crois qu’on peut obtenir certaines petites victoires.
Malgré tout, je suis forcé de constater dans la longue histoire de l’informatique, si on remonte justement aux années 70 et à la création de la CNIL, qui déjà était censée permettre de juguler les atteintes massives à la vie privée rendues plus faciles par l’informatique, qu’historiquement, en fait, ces modes d’action trouvent leurs limites. Dans le contexte historique qui est le nôtre, ces limites doivent nous amener à envisager d’autres modes d’action, d’autres modes de contestation, pas pour les abandonner, mais il faut les accompagner d’autres formes d’opposition, de refus plus peut-être radical des formes d’informatisation qui conduisent à rendre les rapports de pouvoir encore plus difficiles à contester, à transformer.

Olivia Gesberg : Et sur ce point-là vous semblez être sur la même ligne qu’Edward Snowden interrogé cette fois par France Inter, c’était lundi.

Edward Snowden, voix off du traducteur : De toute façon vous n’avez pas le choix, vous devez utiliser Google, Facebook, tout cela, vous devez avoir un téléphone portable. Tout ça fonctionne contre vous et ce n’est pas par choix. Vous n’exprimez pas votre consentement éclairé et même lorsque vous avez cliqué sur un bouton « Je suis d’accord » pour avoir un cookie qui va vous suivre ; vous savez, quand vous allez sur un service il faut cliquer sur un document et si vous voulez l’ouvrir pour le lire ça fait 600 pages ; personne ne le lit ! Ça ce n’est pas du consentement éclairé et ce n’est pas une excuse. Ce sont véritablement des choses contre lesquelles il faut lutter. Ce qu’il faut changer ce n’est pas les entreprises, ce n’est pas ce téléphone portable, ce n’est pas ce logiciel. Il faut changer le système et ça se produit à tous les niveaux : sur le plan social, sur le plan commercial et sur le plan juridique, sur le plan gouvernemental.

Olivia Gesberg : Comment agir Félix Tréguer quand on n’a pas le choix ? Changer le système, vous semblez dire à peu près pareil dans ce livre qui ne veut pas être un livre de résignation puisque vous appelez à ne pas battre sa coulpe mais à bien identifier nos erreurs et faire en sorte qu’elles ne se reproduisent pas.

Félix Tréguer : Le système numérique, le macro-système informatique dans lequel on vit et qui occupe une place toujours plus importante dans nos sociétés, au-delà même de l’espace public médiatique et de la communication médiatique, c’est l’ensemble de nos sociétés, de nos bureaucraties qui migre vers ces technologies. Effectivement, on se retrouve un petit peu dans une contradiction en apparence insurmontable lorsqu’on conteste ce système et son orientation. Un peu de la même manière que des syndicalistes ou des salariés, des travailleurs engagés dans une lutte dans leur usine contre le capitalisme continuent à vivre dans une société capitaliste et, forcément, ça implique des formes de contradiction. On est obligé de vivre dans un monde que l’on refuse.
Cela étant, je pense justement que l’enjeu aujourd’hui c’est de se rendre compte de la nécessité d’une désescalade technologique, d’affirmer, comme je disais, un refus vis-à-vis des trajectoires technologiques et numériques dominantes, que ce soient des technologies comme la reconnaissance faciale, que ce soit la dématérialisation à outrance des bureaucraties, des services publics avec les conséquences très concrètes dans la vie des gens que cela peut avoir. Ça peut aussi passer par la prise de conscience individuelle des formes d’aliénation liées à l’addiction qu’implique notre rapport aux écrans.
Je pense que, du coup, il y a une prise de conscience collective et la nécessité de désirer une vie avec moins d’informatique, avec moins de technologie de manière générale et ça, c’est un désir qui reste à construire. Cela étant, il y a aussi beaucoup une prise de conscience croissante, je crois, et des luttes de plus en plus nourries sur tout un tas de fronts, que ce soit sur l’informatique dans l‘agriculture et le puçage des animaux, que ce soit l’informatisation des écoles et de l’Éducation nationale tout entière, que ce soit l’arrivée de ces technologies de contrôle social, de police prédictive, de reconnaissance faciale dans nos villes, au-delà d’Internet, c’est pour donner plein d’exemples de ces multiples fronts.
L’un des enjeux aujourd’hui, et je pense que ça renvoie aussi à des enjeux stratégiques très forts dans les mouvements écologistes qui s’affirment aujourd’hui avec force, c'est la nécessité de bâtir des ponts et de construire un refus. C’est en articulant ces nouveaux modes d’action peut-être plus radicaux, en fait ils existaient depuis longtemps mais en tout cas il faut les réinvestir, que l’on saura mieux contester le système, construire et renouer avec l’horizon démocratique.

Olivia Gesberg : Merci beaucoup à vous Félix Tréguer. L’utopie déchue - Une contre-histoire d’Internet vient de paraître chez Fayard.
Merci aussi à toute l’équipe de La Grande Table. À la réalisation aujourd’hui c’était Gilles Blanchard…

Revue de presse de l'April pour la semaine 32 de l'année 2020

lun, 08/10/2020 - 22:53

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[lesoir.be] Du code informatique stocké bien au frais dans l’Arctique (¤)

✍ Thomas Casavecchia, le dimanche 9 août 2020.

Il s’agit d’une véritable bibliothèque d’Alexandrie : les codes sources du système d’exploitation Linux, le code du programme qui a permis de capturer la première image d’un trou noir, les codes permettant de faire fonctionner le bitcoin, ou encore ceux de MS-DOS, l’ancêtre de Windows qui permettait de faire fonctionner les disquettes et que les moins de vingt ans ne peuvent pas connaître. Tous font partie des 21 téraoctets de codes qui sont stockés sur 186 bobines de microfilm. Github promet que ces derniers resteront accessibles durant les 1.000 prochaines années. De quoi enthousiasmer les futurs archéologues.

[Libération] Mort du philosophe Bernard Stiegler, technicien de la pensée et penseur de la technique

✍ Sonya Faure et Simon Blin, le vendredi 7 août 2020.

Le philosophe engagé à gauche est mort à l’âge de 68 ans. Condamné en 1978 pour plusieurs braquages de banques, il avait étudié en prison. Il est l’auteur d’une œuvre hybride et pionnière sur la technique et le numérique.

Et aussi: [ZDNet France] Open Source Security Foundation: regrouper pour mieux sécuriser

✍ Steven J. Vaughan-Nichols, le mardi 4 août 2020.

Une nouvelle fondation vient rassembler les différents efforts de la communauté visant à mieux sécuriser les programmes Open Source.

Et aussi:

Réunion du groupe de travail Sensibilisation de l'April jeudi 20 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

ven, 08/07/2020 - 15:32
Start: 20 Août 2020 - 17:15End: 20 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 20 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Réunion du groupe de travail Sensibilisation de l'April jeudi 13 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

mar, 08/04/2020 - 14:57
Start: 13 Août 2020 - 17:15End: 13 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 13 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Réunion du groupe de travail Sensibilisation de l'April jeudi 6 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

mar, 08/04/2020 - 14:54
Start: 6 Août 2020 - 17:15End: 6 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas). Dans la période actuelle, les réunions ont lieu à distance.

La prochaine réunion du groupe Sensibilisation aura lieu jeudi 6 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à travailler sur les projet Quiz enjeux de l'informatique et Jeu du Gnou.

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Quiz enjeux de l'informatique

C'est l'un des projets en cours du groupe de travail Sensibilisation. Les questions, du type QCM ou vrai/faux, sont au cœur de l'expérience de sensibilisation dans le Jeu du Gnou (voir ci-dessous). En même temps, elles constituent une ressource de sensibilisation à part entière et pourront être utilisées et partagées dans beaucoup de contextes différents (stands, ateliers, sites web, etc.).

Le pad avec les questions finalisées (à partir de la ligne 83).

Le pad pour proposer de nouvelles questions.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Revue de presse de l'April pour la semaine 31 de l'année 2020

lun, 08/03/2020 - 20:45

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[LeMagIT] Souveraineté numérique et «Guerre Froide» technologique: l’avenir du cloud s’annonce orageux

✍ Philippe Ducellier, le vendredi 31 juillet 2020.

Pour la banque d’investissement Klecha & Co, au regard du contexte de guerre économique où l’Europe est un terrain de jeu possible pour les États-Unis et la Chine, la cloudification massive ira de pair avec la question de la souveraineté des données et de l’indépendance technologique.

[Le Monde.fr] Après la crise, les communs numériques en quête de reconnaissance (¤)

✍ Claire Legros, le mardi 28 juillet 2020.

«Le retour des communs» (2/6). Pendant le confinement, les données et outils ouverts ont joué un rôle vital et prouvé leur pertinence en temps de crise. La séquence a aussi mis en lumière la nécessaire articulation entre ces communs numériques et les secteurs public et privé.

[Clubic.com] PeerTube, le projet d'alternative à YouTube décentralisée, avance bien!

✍ Benjamin Bruel, le lundi 27 juillet 2020.

Deux ans après le financement participatif qui avait conduit à sa naissance, PeerTube, l’alternative à YouTube française et libre, continue gentiment de rouler sa bosse. Framasoft, l’association pour le développement de logiciels libres à l’origine du projet, dévoile la version 2.3 de PeerTube.

Faut-il avoir peur des algorithmes - Aurélie Jean - Jean-François Bonnefon - Grand bien vous fasse

jeu, 07/30/2020 - 16:50


Titre : Faut-il avoir peur des algorithmes ?
Intervenant·e·s : Aurélie Jean - Jean-François Bonnefon - Ali Rebeihi
Lieu : Émission Grand bien vous fasse, France Inter
Date : février 2020
Durée : 45 min 20 [NB : la chronique « Pas son genre » de Giulia Foïs n'est pas transcrite]
Écouter le podcast sur le site de l'émission
Licence de la transcription : Verbatim
Illustration : Voiture autonome, Séquence voiture autonome - Licence Créative Commons CC BY-NC-ND 3.0 FR robot24.fr-2014
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

On s’intéresse notamment aux dilemmes moraux que pose l’intelligence artificielle quand par exemple les voitures sans conducteur décideront de sauver ou non un individu sur leur chemin. Vous verrez que les algorithmes posent des questions éthiques vertigineuses.

Transcription

Ali Rebeihi : Bonjour à tous. Soyez les bienvenus en direct ou en podcast. Vous le verrez ce matin, un algorithme est une suite d’opérations ou d’instructions qui permettent de résoudre un problème ou d’obtenir un résultat.
Les algorithmes numériques nous accompagnent dans tous les domaines de notre existence quand nous utilisons, par exemple, nos smartphones ou nos ordinateurs ? Faut-il vraiment avoir peur des algorithmes numériques ? Quels dangers réels représentent ces algorithmes dont on ne peut plus se passer ?
Le vrai danger c’est peut-être les biais algorithmiques, l’équivalent des biais cognitifs pour les humains. Des biais algorithmiques qui peuvent conduire à des erreurs et à des discriminations quand, par exemple, les tout premiers outils de reconnaissance faciale ne prenaient pas en compte les peaux noires.
On s’intéressera également aux vertigineux dilemmes moraux que posent les algorithmes des voitures sans conducteur qui devront privilégier soit la sécurité des passagers soit celle des piétons.

Pour nous éclairer ce matin, l’entrepreneur Aurélie Jean et le chercheur Jean-François Bonnefon.
Avez-vous peur des algorithmes ou alors pas du tout ? 01 45 24 7000, sans oublier la page Facebook de Grand bien vous fasse et l’appli France Inter.

Vers 11 heures moins 25 vous retrouverez la chronique « Pas son genre » de Giulia Foïs.
Bienvenue dans Grand bien vous fasse, la vie quotidienne, mode d’emploi.

Voix off : France Inter, Grand bien vous fasse, Ali Rebeihi.

Ali Rebeihi : Bonjour Aurélie Jean.

Aurélie Jean : Bonjour Ali.

Ali Rebeihi : Vous êtes docteure en sciences et chef d’entreprise, ancienne élève de Normale Sup, de Mines Paris Tech, chercheuse au MIT aux États-Unis.

Aurélie Jean : Ancienne chercheuse.

Ali Rebeihi : Ancienne chercheuse mais tout de même. Vous publiez aux éditions de L’observatoire De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, ce titre fait évidemment référence à Lewis Carroll, De l’autre côté du miroir, c’était la suite de Alice au pays des merveilles

Aurélie Jean : Oui. Absolument c’est une belle référence à Lewis Carroll et je parle d’ailleurs dans le livre de cette œuvre qui m’est très chère.

Ali Rebeihi : Pourquoi ce titre ?

Aurélie Jean : Déjà parce que c’était dans le concept, l’ADN de la collection De facto créée par Gaspard Koenig au sein de L’observatoire et c’est vrai que c’est intéressant parce que le meilleur moyen pour faire comprendre les choses aux gens c’est de les emmener de l’autre côté de l’objet qui les sépare de ce monde et en l’occurrence, dans mon cas, c’était le monde des algorithmes et c’est une manière assez douce pour les amener gentiment, justement, vers ce monde dont ils ont peur.

Ali Rebeihi : Bonjour Jean-François Bonnefon.

Jean-François Bonnefon : Bonjour.

Ali Rebeihi : Vous êtes docteur en psychologie cognitive, directeur de recherche à la fameuse Toulouse School of Economics, vous êtes médaille de bronze du CNRS et vous publiez chez HumenSciences La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?. Votre titre se réfère bien évidemment au célèbre film de Hitchcock, L’Homme qui en savait trop.

Jean-François Bonnefon : C’est ça.

Ali Rebeihi : Il sera question de psychologie morale, avec vous, dans la seconde partie de l’émission. Expliquez-nous ce qu’est la psychologie morale en quelques mots.

Jean-François Bonnefon : La psychologie morale c’est comprendre comment les gens décident de ce qui est bien ou ce qui est mal. C’est très différent, par exemple, de la philosophie morale qui essaie de déterminer ce qui est bien et ce qui est mal. La psychologie morale c’est une description de comment les gens arrivent à ce genre de jugement.

Ali Rebeihi : Comment expliquer ce qu’est un algorithme à un enfant de dix ans, Aurélie Jean ? J’ai parfois utilisé, dans cette émission, l’exemple de la recette de cuisine pour expliquer ce qu’est un algorithme et je mérite un gros pan sur le bec, Aurélie Jean.

Aurélie Jean : Non parce qu’en fait, comme vous l’avez très bien dit, vous avez donné un exemple. La recette de cuisine est un algorithme mais dire que l’algorithme est une recette cuisine, je trouve que c’est un petit peu…

Ali Rebeihi : Simpliste.

Aurélie Jean : Oui. En fait c’est trop simpliste parce qu’après, du coup, on a du mal à comprendre des concepts un peu plus abstraits qui sont propres à l’algorithmique. Ce que je dis c’est que la recette de cuisine est un algorithme, mais que l’algorithme n’est pas une recette de cuisine.

Ali Rebeihi : Alors c’est quoi un algorithme ?

Aurélie Jean : C’est ce que vous avez dit en introduction et c’est très bien dit, c’est-à-dire que c’est un ensemble d’opérations à exécuter selon une certaine logique pour résoudre un problème, répondre à une question, obtenir un résultat par rapport à un problème donné.

Ali Rebeihi : Vous comprenez que ça fasse peur les algorithmes ? Le mot algorithme ?

Aurélie Jean : Oui, le mot fait peur parce qu’en fait on l’associe à tous les scandales qu’on a pu entendre, voir, sur lesquels on a pu lire ces deux dernières années. C’est vrai que dès qu’on parle d’algorithmique et des algorithmes on les personnifie, c’est-à-dire qu’on leur attribue des caractères anthropomorphiques : on parle d’algorithmes sexistes, injustes, discriminatoires, racistes. Ce sont des choses qui font relativement peur, donc il faut sortir de cette passion pour raisonner sur les débats actuels.

Ali Rebeihi : Pouvez-vous nous donner des exemples d’algorithmes numériques utilisés dans la vie de tous les jours, des algorithmes présents dans notre vie quotidienne, du matin au soir, toute l’année, qui nous accompagneront certainement jusqu’à notre dernier souffle.

Aurélie Jean : Il y en a plein, la liste est longue. Par exemple, quand vous décidez d’utiliser une application qui va vous définir le chemin le plus optimal pour aller d’un point à un autre, que ce soit dans les transports en commun ou à pied ou en voiture, ce sont trois modes différents, ça dépend des outils. Il y a des algorithmes qui vont regarder le chemin le plus court, d’autres algorithmes qui vont prendre en considération le trafic des voitures et d’autres algorithmes qui vont aussi prendre en considération le trafic des transports en commun, à savoir lorsqu’il y a des grèves ou des accidents. Donc c’est un exemple parmi tant d’autres.

Ali Rebeihi : Les applis de rencontre aussi ?

Aurélie Jean : Les applis de rencontre aussi, plein de choses. Quand vous allez, par exemple, sur un site pour aller acheter un produit en particulier il y a des algorithmes, entre autres, de captologie ou des algorithmes d’optimisation pour optimiser votre « parcours client », comme on dit, des choses comme ça.

Ali Rebeihi : Quelle est l’origine du mot « algorithme », qui s’écrit sans « y ». Il faut partir du côté de la Perse.

Aurélie Jean : Oui, exactement, vous avez très bien dit. Même si aujourd’hui on parle d’algorithmes numériques qui sont censés être écrits, codés dans un programme informatique pour tourner sur un ordinateur, traditionnellement, historiquement l’algorithme est fait pour être écrit à la main et résolu à la main. Le mot « algorithme » vient du mot latin Algoritmi qui est, en fait, le nom latin du grand mathématicien perse Al-Khwârizmî dont le nom provient aussi, en fait, du mot algèbre. En fait, le concept de science algorithmique est même bien plus ancien, au 3e siècle avant notre ère : Al-Khwârizmî c’est 9e siècle de notre ère. C’est aussi 3e siècle avant notre ère avec les cours de logique d‘Euclide et son livre, son œuvre les Éléments qui donne des processus de raisonnement logique pour résoudre des problèmes et entre autre démontrer des théorèmes.

Ali Rebeihi : Je redis le nom de ce mathématicien, Muhammad Ibn Mūsā al-Khuwārizmī, et son nom a été latinisé en Algoritmi qui donnera donc algorithme.
Vous, votre premier algorithme vous l’écrivez à l’âge de 19 ans, Aurélie Jean ?

Aurélie Jean : Oui. C’est intéressant parce que je le fais écrire dans le livre par les gens. C’est une belle manière de démystifier la discipline et de leur montrer que c’est possible.
Moi c’est à l’âge de 19 ans. Je faisais des cours de maths et de physique à Sorbonne Universités et j’ai décidé de prendre un cours optionnel de sciences informatiques, d’abord par une frustration de ne pas comprendre ce que sont les sciences informatiques, je ne sais pas si c’est la meilleure motivation mais c’est un driver comme un autre. En fait, durant ce cours, j’ai passé mes six premiers mois avec un papier et un crayon à écrire des algorithmes. Ça a été la découverte de cette science. Mon premier algorithme, dont je parle dans le livre et que les gens peuvent écrire avec moi, c’est un algorithme assez simple en soi.

Ali Rebeihi : Je l’ai compris !

Aurélie Jean : Vous l’avez compris ? C’est bien. C’est un algorithme pour trier dans l’ordre croissant des nombres entiers, des nombres naturels dans un tableau. C’est très rigolo. Au début, quand j’explique, je dis « tout le monde sait résoudre ce problème, c’est facile, maintenant c’est : est-ce que vous allez pouvoir le résoudre le plus rapidement possible ? » Et c’est là où la science algorithmique intervient.

Ali Rebeihi : Qu’est-ce qui vous fascine dans la science algorithmique ?

Aurélie Jean : Il y a plusieurs choses. Déjà j’adore le caractère mathématique appliquée de la science algorithmique. Ce que j’aime beaucoup, en fait, c’est que ça permet de résoudre des problèmes concrets par une voie optimale en termes de nombres d’opérations à exécuter. C’est vraiment le côté résoudre des problèmes concrets.

Ali Rebeihi : Un exemple ?

Aurélie Jean : Typiquement, le cas du tableau est un exemple parce que c’est vrai qu’on passe sa vie à trier des choses dans les problèmes aujourd’hui. Par exemple ce que j’ai fait dans ma thèse ou même plus tard dans ma recherche quand j’ai travaillé sur le traumatisme crânien, c’est grâce à des modèles mathématiques que j’ai traduit sous forme algorithmique pour faire des simulations, que j’ai pu établir une loi qui a estimé, qui estime toujours d’ailleurs, les risques d’un humain d’avoir un traumatisme crânien par rapport à l’énergie, au type de choc qu’il ou elle a pu recevoir à la tête. Je trouve que c’est quand même fascinant d’arriver à résoudre un problème concret. Après c’est un ensemble, ce n’est pas un algorithme, il y a plein d’algorithmes dans ce modèle, mais c’est quand même dingue de voir qu’on arrive à résoudre des problèmes concrets en passant par le virtuel parce que, quelque part, l’algorithmique, en tout cas numérique, c’est aussi passer par la virtualisation des phénomènes, de l’autre côté de la machine, dans la machine, en l’occurrence dans l’ordinateur.

Ali Rebeihi : Jean-François Bonnefon, on peut peut-être avoir peur des algorithmes des voitures sans conducteur ? C’est toute la question de votre livre.

Jean-François Bonnefon : Oui, parce que l’algorithme d’une voiture sans conducteur c’est vraiment un cas extrême de décision automatique, en partie à cause de ses enjeux puisque là on parle de l’intégrité physique des passagers ou des gens qui sont sur la route donc de conséquences qui sont assez graves potentiellement. Et aussi parce que, en général, quand il y a une décision qui est prise par un algorithme, c’est plutôt une suggestion, surtout quand il y a des conséquences potentiellement graves, il y a un humain qui va, à un moment, être dans la boucle, valider la décision, l’examiner.
Les voitures sans conducteur, la prise de décision automatique se produit à un tel rythme qu’on est dans un cas où il est difficile de mettre un humain dans la boucle à chaque fois.

Ali Rebeihi : « Faut-il avoir peur des algorithmes ? », c’est le titre de cette émission, mais n’oublions pas leurs bienfaits, notamment dans le domaine de la recherche médicale. Aurélie Jean.

Aurélie Jean : Oui, pas que dans la recherche, même dans la pratique médicale clinique aujourd’hui. Les algorithmes interviennent par exemple pour faire des tests biologiques où on va pouvoir analyser des prélèvements de façon automatique, mais ça fait très longtemps qu’on est capable de faire ça. Par exemple, on parle beaucoup des algorithmes qui vont aller détecter, pré-détecter des tumeurs sur des radiographies. Ça peut être beaucoup de choses, des algorithmes qui vont peut-être optimiser certains diagnostics, il y a plein de choses qui se font, mais, comme le dit très bien Jean-François, il faut le redire, l’algorithme fournit une suggestion. La décision nous appartient.

Ali Rebeihi : Ça, on l’oublie souvent !

Aurélie Jean : On l’oublie souvent et je trouve que c’est intéressant de le dire parce que ça nous permet de nous positionner par rapport à ces algorithmes qui nous donnent des suggestions. Et je le dis d’autant plus que dans le cas de la voiture autonome, comme vous l’avez dit, c’est un peu une décision unilatérale, mais c’est vrai qu’il y a beaucoup de choses où on a l’impression qu’on n’a pas le choix alors qu’en fait on l’a. Par exemple lorsque vous parliez des applications de rencontre, l’application de rencontre vous donne une suggestion d’individu, ça ne veut pas dire que c’est la bonne personne !

Ali Rebeihi : Est-ce que nous sommes atteints d’anti-algorithmie primaire, dans le grand public, dans les médias ?

Aurélie Jean : Je n’espère pas sinon mon métier est en danger ! Plus sérieusement, je pense que les gens ont peur de cette discipline parce qu’ils ne la comprennent pas et parce que, aussi, il y a beaucoup de gens qui créent des fantasmes autour de ces entités mathématiques : on imagine que l’algorithme va tout remplacer, l’algorithme va pouvoir avoir des émotions, va pouvoir avoir une âme. Non, ce n’est pas possible, c’est impossible. Le vrai discours est un peu moins sexy, peut-être, mais en tout cas vrai et beaucoup plus rationnel.

Ali Rebeihi : Nous avons peur parce que nous n’avons pas la culture scientifique suffisante, peut-être, dans le grand public, pour comprendre tous ces grands enjeux ?

Aurélie Jean : Oui. C’est le cas de beaucoup de sujets, en fait, ce n’est pas propre qu'aux algorithmes. Lorsqu’on a commencé à travailler sur la génétique, par exemple, ça a créé beaucoup de fantasmes et ça a fait très peur, alors qu’aujourd’hui on fait beaucoup de choses en génétique et ça nous parait normal. Je pense que c’est vraiment essayer de démystifier, essayer aussi de montrer les vraies menaces. Vous parliez de biais algorithmiques, c’est une vraie menace que les gens commencent à connaître, mais en fait ça fait longtemps, très longtemps qu’on travaille dessus.

Ali Rebeihi : Expliquez en deux mots parce qu’on va y revenir largement dans l’émission. Qu’est-ce qu’un biais algorithmique ?

Aurélie Jean : En fait, comme vous l’avez très bien dit, on a tous des biais cognitifs dus à notre histoire, notre langue, notre religion, peu importe, notre culture, et typiquement on a tendance à introduire des biais cognitifs dans les choses qu’on développe. Ça peut être un texte, ça peut être un produit tangible, donc ça peut être aussi un algorithme. En fait, on transfère nos propres biais cognitifs aux algorithmes et ça devient des biais algorithmiques qui ont comme conséquence, comme vous l’avez très bien dit, par exemple d’écarter une partie de la population de l’usage de l’outil et c’est le cas des premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les peaux noires.

Ali Rebeihi : Je m’adresse au docteur en psychologie cognitive. C’est quoi un biais cognitif ? Donnez-nous un exemple de biais cognitif.

Jean-François Bonnefon : Par exemple, on peut avoir le biais de ne chercher que des informations qui nous confortent dans ce que nous croyons déjà et éviter des informations qui nous mettent en doute. Un biais cognitif c’est un processus psychologique qui nous pousse toujours dans la même direction pour des résultats qui sont suboptimaux.

Ali Rebeihi : Avez-vous peur des algorithmes ou alors pas du tout ? N’hésitez pas à nous appeler, à poser toutes vos questions au 01 45 24 7000.
Alexia Rivière, Julia Macarez et Clément Martin m’ont aidé à préparer cette émission réalisée par Claire Destacamp. Belle journée à l’écoute de France Inter.

Pause musicale : Aline par Christophe.

Ali Rebeihi : Christophe interprétait em>Aline.

Voix off : « Je pense avoir trouvé l’algorithme pour se faire des amis. – Arrête il n’y a pas d’algo pour se faire des amis. – Allô ! Tu as peut-être le temps de boire une boisson chaude, les plus appréciées sont le café ou le chocolat. »
Ali Rebeihi sur France Inter.

Ali Rebeihi : 10 heures 21. Faut-il avoir peur des algorithmes ?, c’est notre thème ce matin avec la docteure en sciences Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 24 7000.
Je vous verrais bien, Aurélie Jean, dans la bande de The Big Bang Theory !

Aurélie Jean : Oui, carrément. Mais je me reconnais pas mal sur le côté un peu nerdy, j’avoue.

Ali Rebeihi : Un peu geek.

Aurélie Jean : Oui.

Ali Rebeihi : La mathématicienne Cathy O'Neil1, qui est venue dans cette émission, nous a dit que les algorithmes ne sont pas nécessairement équitables car c’est la personne qui les conçoit qui définit leur fonctionnement et leurs résultats. Aurélie Jean, rappelez-nous ce qu’est un biais algorithmique pour ceux qui nous prennent en route. C’est ça un biais algorithmique ? C’est ce que nous dit Cathy O'Neil ?

Aurélie Jean : En fait, ce que dit Cathy O'Neil, c’est qu’on a tendance à croire qu’un algorithme est objectif, dû à l’impartialité des mathématiques, mais c’est oublier, en fait, que l’algorithme est développé par un humain, par des humains, que ce soit dans les critères explicitement définis par l'humain, mais ça peut aussi être le choix des données sur lequel le calibrer ou l’entraîner dans le cas de critères implicites. C’est vrai, pour reprendre ce qu’est un biais algorithmique, que nous on a des biais cognitifs, on va les transférer à l’algorithme qu’on écrit et, comme l’a dit Jean-François, on peut, en fait, sans s’en rendre compte, écarter des gens, ne pas penser à certaines données, à certains individus, à certains scénarios lorsqu’on écrit l’algorithme.

Ali Rebeihi : On va prendre des exemples concrets. Vous vous rendez compte de l’importance des biais algorithmiques quand un chercheur vous demande d’utiliser les algorithmes pour comprendre la croissance du muscle cardiaque en laboratoire. Racontez-nous.

Aurélie Jean : C’était en 2009, exactement, j’étais à l’université d’État de Pennsylvanie où j’ai commencé ma recherche avec le professeur Joshua Entsminger qui est maintenant un très bon ami à moi. Je développais des modèles et des algos pour comprendre la croissance d’un muscle cardiaque en laboratoire, pour aller remplacer un muscle malade après un infarctus. C’est passionnant, ça s’appelle l’ingénierie des tissus pour les gens qui veulent savoir. Je l’écris dans le bouquin, mon professeur me dit : « Aurélie, tu ne peux pas faire un modèle là-dessus si tu n’as jamais disséqué un cœur et compris comment ça fonctionne. » Du coup on part tous les deux disséquer un cœur, c’est génial et, à un moment donné, durant le processus, il me dit : « Au fait, est-ce que c’est possible d’avoir des biais dans des algos ? » J’ai commencé à rire en lui disant « eh bien non, ce sont des maths, il ne peut pas y avoir de biais ! » Il me dit : « Mais tu sais, moi, quand je fais mes études cliniques, il y a des biais. » Du coup on commence à partir sur cette conversation et c’est là, en fait, où j’ai entendu le mot « biais algorithmique » et que j’ai compris que c’était possible de mettre des biais dans mes algos pour plein de raisons. Déjà parce que, comme me le disait mon professeur : « Tu vois le monde avec ton propre angle. Tu te bases sur des données dans des papiers scientifiques médicaux qui sont peut-être biaisées, sur des études biaisées, sur des expérimentations biaisées, donc il y a plein de manières de biaiser in fine ton algorithme, donc il faut avoir un œil critique comme le ferait un médecin ou un chercheur en médecine sur ses expériences. »

Ali Rebeihi : Le biais algorithmique peut provenir également de la collecte des données. Prenons un autre exemple : lors de votre simulation numérique des traumatismes crâniens – vous travaillez sur ce domaine-là – vous collectez des données sur les dimensions moyennes de têtes humaines et inconsciemment votre standard c’est quoi ?

Aurélie Jean : En fait c’est moi. Pas complètement parce que j’étais assez fière, à l’époque j’étais au MIT et je devais rechercher les données morphologiques, comme vous l’avez dit, du crâne humain, donc j’étais très fière de moi parce que, en plus je suis assez féministe, j’ai cherché des femmes, des hommes, des plus vieux, des moins vieux, des jeunes, des enfants, des Afro-Américains, des Blancs, des gens d’Amérique du Sud, j’étais hyper-fière de moi en disant « je sais faire, je sais prendre en compte la diversité étant moi-même issue d’une minorité dans mon milieu ». En fait, mon directeur de recherche, le professeur Raul Radovitzky, me dit : « Aurélie, tu as oublié une population ». Je dis : « Mais non, pas du tout ! » Il me fait : « Si, si, les populations asiatiques ont des morphologies très différentes — et je dis — C’est marrant parce que moi je pensais qu’ils avaient des morphologies comme les nôtres, sous-entendu caucasiens », c’est quand même dingue !

Ali Rebeihi : Exactement, l’homme blanc occidental.

Aurélie Jean : Il me dit : « Mais non, pas du tout, il faut que tu les considères aussi. »

Ali Rebeihi : Et vous rectifiez le tir.

Aurélie Jean : Et je rectifie le tir. Après, savoir si ça aurait eu une influence sur mon algorithme ou la réponse de mon algorithme, je ne sais pas. En tout cas on a considéré ça quand on a ensuite écrit l’algorithme et le modèle pour justement essayer de calibrer la loi sur des données morphologiques de crânes humains qui sont une protection naturelle pour notre cerveau. C’est vrai que je suis plutôt contente et j’en parle dans le livre, parce que j’ai fait une erreur, j’ai été rattrapée au vol par quelqu’un qui avait un meilleur background que moi dans le milieu médical. Et, au final, c’est vrai que j’avais écrit une loi pour estimer les risques de traumatisme crânien d’un humain en fonction du choc qu’il avait reçu à la tête, peut-être qu’en ne considérant pas les populations asiatiques, peut-être que ma loi n’aurait pas marché sur les populations asiatiques. On ne le saura jamais, mais c’est important de se dire qu’on essaye d’être le plus représentatif possible dans les données qu’on utilise pour calibrer ou entraîner un algorithme.

Ali Rebeihi : Un autre point qui peut biaiser, fausser l’algorithme, c’est l’origine des paramètres utilisés.

Aurélie Jean : Oui, l’origine des paramètres utilisés, sous-entendu les critères qu’on rentre dans l’algorithme. Pour que les gens comprennent, je classe les algorithmes en deux familles :
la famille explicite c’est lié à la symbolique. L’intelligence artificielle symbolique c’est lorsqu’on va définir entièrement à la main l’algorithme, les équations mathématiques, les critères, les conditions, les hypothèses ;
et puis tout ce qui est implicite, à savoir tout ce qui est lié aux techniques d’apprentissage où l’algorithme va créer lui-même ses critères, donc implicitement, en étant entraîné sur des données.
Donc ça vient aussi de ça, c’est-à-dire que quand écrit soi-même l’algorithme, on peut aussi mettre des critères qui sont biaisés parce qu’on voit le monde sous notre propre prisme, donc sous un prisme biaisé puisqu’on est humain.

Ali Rebeihi : Pour bien comprendre ce qu’est un biais algorithme implicite, prenons peut-être l’exemple d’un algorithme qui chercherait à reconnaître un chien sur une photo.

Aurélie Jean : Très bon exemple que je donne dans le livre. C’est bien, vous avez bien lu le livre !
Dans le livre je donne l’exemple du chien sur une photo. Il y a deux manières de faire : la première c’est de se dire « on va décrire mathématiquement ce qu’est un chien sur une photo », mais on se rend compte que ça ne marche pas très bien, c’est compliqué. Du coup on fait la méthode plus efficace et plus rapide qui est de dire « on va entraîner l’algorithme sur des photos qui contiennent des chiens ou pas, puis on va le rectifier, on va le superviser et, au final, l’algorithme va être assez efficace pour reconnaître un chien sur une photo ». Ce qui va se passer c’est que, justement, on va donner plein de photos à l’algorithme et implicitement – je dis implicitement parce qu’en fait ce n’est jamais défini explicitement on a du mal à retrouver ces critères après, a posteriori, dans les invariants de réseau neuronal entre autres si on prend les termes techniques – ce qui se passe c’est que l’algorithme va définir des critères implicitement pour identifier, ou pas, un chien sur une photo. Ce qui est très intéressant c’est que l’algorithme ne sait pas pour autant décrire ce qu’est un chien, par contre il va reconnaître, ou pas, un chien.

Ali Rebeihi : Jean-François Bonnefon, si on applique ça à la voiture sans conducteur ?

Jean-François Bonnefon : Bien sûr, la voiture sans conducteur va aussi être entraînée à reconnaître typiquement les différents usagers de la route, mais là on va plutôt passer du biais au dilemme. C’est-à-dire qu’on va moins s’intéresser au biais d’entraînement mais plus au fait que quand on crée un algorithme on lui donne un but. S’il n’y en a qu’un c’est assez facile, mais quand il y en a plusieurs, il va falloir qu’il arbitre entre ses buts. Et quand on ne peut pas les satisfaire tous à la fois, va se poser le problème du dilemme.

Ali Rebeihi : Il y a une forte responsabilité qui pèse sur les concepteurs d’algorithmes, Aurélie Jean ?

Aurélie Jean : Pas qu’eux, c’est-à-dire que c’est vrai que je dis, comme Cathy O'Neil, que les concepteurs ont une part de responsabilité, mais ce ne sont pas les seuls responsables.

Ali Rebeihi : Qui sont les autres responsables ?

Aurélie Jean : Tout le monde sur la chaîne d’un algorithme, c’est-à-dire les gens qui pensent à l’idée d’un modèle, l’idée de répondre à une question par un algorithme. Il y a les gens qui vont concevoir l’algorithme, les gens qui vont l’écrire, l’implémenter, le tester aussi ; les gens qui vont le marketer, donc vendre l’outil, et puis il y a des gens qui vont l’utiliser. Tous ces gens sur la chaîne de fonctionnement, de production, d’un algorithme ont, en fait, une part de responsabilité sur l’algorithme qu’ils développent, qu’ils pensent, qu’ils marketent, qu’ils vendent ou qu’ils utilisent. En fait c’est beaucoup plus compliqué et c’est vrai, c’est ce que je dis souvent, c’est-à-dire que nous, concepteurs, on doit travailler avec les gens du métier : par exemple, je n’aurais pas pu développer ce que j’ai fait si je n’avais pas travaillé avec des médecins. Encore aujourd’hui je fais de la recherche dans le domaine médical, si je n’étais pas entourée de médecins je ferais d’énormes bêtises et, de toutes façons, je ne saurais pas quoi faire pour être tout à fait honnête avec vous, pareil dans le domaine de la finance, et ces gens-là doivent aussi comprendre ce que je fais. Donc il y a vraiment un travail de collaboration et ça va très loin. Je considère que les gens, les entités, les entreprises qui vont développer des outils ont la responsabilité que les gens qui les utilisent les comprennent. Comme je dis beaucoup, les utilisateurs sont nos meilleurs ennemis. Pourquoi ? Parce qu’en fait ils vont nous aider à améliorer l’outil, donc il faut qu’ils comprennent ce qui se passe.
Pour la reconnaissance faciale, un exemple tout bête, il y a des distributeurs de savon qui reconnaissent la peau. En fait, il y a très longtemps, ces outils ne fonctionnaient pas sur les peaux noires. Les gens qui utilisaient ces machines, qui étaient Noirs et pour lesquels ça ne marchait pas, se sont juste dit « ça ne marche pas ». Ils ne se sont pas dit « tiens, il y a biais algorithmique, il y a un bug ». Or, si ces gens comprennent, ils vont pouvoir reconnaître le biais algorithmique très tôt, du coup on va tout de suite pouvoir le fixer si on arrive facilement à le fixer.

Ali Rebeihi : Jean-François Bonnefon, les concepteurs des algorithmes des voitures sans conducteur ont une sacrée responsabilité morale !

Jean-François Bonnefon : Oui. Encore une fois parce que ces algorithmes ont entre leurs mains la vie ou l’intégrité physique des utilisateurs, en effet.

Ali Rebeihi : Il faut concevoir des voitures sans conducteur qui devront, allez, je le dis vite, soit sacrifier le passager, soit le ou les piétons en cas d’accident. Et ça rappelle le célèbre problème du tramway. Racontez-nous ce fameux problème. Dans sa forme simplifiée, il faut imaginer un tramway sur le point d’écraser cinq personnes.

Jean-François Bonnefon : Le tramway est sur le point d’écraser cinq personnes, mais un être humain a la possibilité d’actionner un levier qui va, disons, dévier le tramway sur une autre voie, mais il se trouve qu’il y a une personne sur cette autre voie.

Ali Rebeihi : Qu’il n’aura pas le temps d’éviter.

Jean-François Bonnefon : Qu’il n’aura pas le temps d’éviter. La question c’est : est-ce qu’il est légitime de rediriger le tramway et de tuer une personne dans le but d’en sauver cinq ?

Ali Rebeihi : Là c’est une étude de l’esprit, ce problème du tramway c’est peu probable, sauf que la voiture sans conducteur rend réaliste et réalisable ce problème du tramway.

Jean-François Bonnefon : Elle le rend réaliste oui, même s’il faut toujours le dire, c’est un cas limite, totalement extrême, d’un problème qui est plus vaste et statistique qui est comment la voiture va distribuer le risque sur les différents usagers de la route, mais la forme, comme vous le dites, la plus frappante de ce problème-là, c’est son cas limite, le cas où vraiment la voiture a à décider de tuer un certain groupe de victimes ou un autre, dans une situation de crash inévitable.

Ali Rebeihi : C’est abusif de dire que dans les prochaines années l’algorithme de l’automobile sans conducteur décidera du sort soit des piétons soit des passagers de l’automobile ?

Jean-François Bonnefon : Décider, pour une voiture, c’est un peu l’anthropomorphiser, c’est sûr.

Ali Rebeihi : Je parle des algorithmes.

Jean-François Bonnefon : L’algorithme va faire ce qu’on lui a dit de faire. Il va optimiser la fonction qu’on lui a demandé d’optimiser. Ça veut dire qu’à un moment il y a des humains qui vont devoir dire qu’est-ce que nous souhaitons que l’algorithme fasse dans ces situations ?

Ali Rebeihi : Vous avez réalisé des études pour essayer de comprendre ce que les gens susceptibles d’acheter ces voitures attendent de ce genre d’automobile. Globalement, les individus souhaitent que les voitures sans conducteur puissent sacrifier leurs passagers pour sauver un plus grand nombre de piétons, mais ils ne veulent pas acheter une voiture qui pourrait les sacrifier eux-mêmes.

Jean-François Bonnefon : C’est cela et j’ai envie de dire que je les comprends. Ce n’est pas de l’hypocrisie. Je comprends bien que dans un monde idéal la voiture devrait faire le moins possible de victimes, donc, parfois, peut-être sacrifier son passager pour sauver dix piétons. Mais est-ce que j’ai envie de rouler dans une voiture comme ça moi-même ? Non, pas forcément, je comprends que c’est peut-être le meilleur des mondes, mais je n’ai pas envie de faire ce sacrifice-là moi-même. C’est complètement compréhensible et c’est, disons, une des formes de ce qu’on appelle en économie un dilemme social, c’est-à-dire que je comprends qu’il y a un monde idéal où tout le monde ferait cette action-là mais moi je n’ai pas très envie de la faire.

Ali Rebeihi : Et pourquoi ne pas laisser faire le hasard ?

Jean-François Bonnefon : Peut-être parce que le hasard c’est une façon de nous échapper, de ne pas prendre nos responsabilités. Il y a d’autres domaines, par exemple le don d’organes, où on se trouve dans cette situation : par exemple il n’y a pas assez de reins pour tous les gens qui les attendent, eh bien on ne fait pas une loterie, on prend nos responsabilités, on définit des critères pour les attribuer. Je n’ai jamais entendu quelqu’un me dire « il faut que les organes soient distribués par loterie. »

Ali Rebeihi : Ça peut freiner l’achat de ces voitures sans conducteur si la voiture sacrifie le passager au profit des piétons ?

Jean-François Bonnefon : Ça pourrait. Je ne sais pas trop ce qui pourrait se passer. On a eu un exemple, en particulier quand un cadre de Mercedes avait dit dans une interview : « Nos voitures privilégieront tout le temps la vie de leurs passagers aux dépens de celle des autres usagers. » On a envie de se dire que c’est peut-être séduisant pour les consommateurs potentiels de ces voitures, mais ils ont dû faire marche arrière en quelques jours après le scandale que ces propos ont déclenché. Les gens disaient : « Ah bon ? Ça veut dire que les riches possesseurs de Mercedes ont le droit de rouler sur tout le monde ? ». La publicité était tellement mauvaise pour Mercedes qu’ils ont été obligés de revenir sur cette parole-là.

Ali Rebeihi : Dans quelques instants on s’intéressera à la Moral Machine2 que vous avez cocréée, Jean-François Bonnefon, qui a connu un succès absolument extraordinaire. Vous la connaissez, Aurélie Jean, cette machine ?

Aurélie Jean : Oui, je l’ai testée moi-même.

Ali Rebeihi : On va expliquer tout à l’heure ce qu’est cette machine, vous me dites si je dis une bêtise, qui permet de collecter les préférences morales des gens, une base de données pour déterminer les algorithmes les plus acceptables pour les populations concernant la voiture sans conducteur.

Jean-François Bonnefon : Là vous avez utilisé le mot correct « les plus acceptables ». Ça ne veut pas dire qu’on dicte aux gouvernements ce qu’il faudrait faire ou aux constructeurs ce qu’il faudrait faire. On les informe juste de ce que la population juge le plus acceptable.

Ali Rebeihi : D’ailleurs vous présidez une commission auprès de la Commission européenne.

Jean-François Bonnefon : Oui, un groupe expert à la Commission européenne pour faire des suggestions sur la régulation de ce genre de situation.

Ali Rebeihi : De ce genre de voiture sans conducteur. On verra ça juste après la chronique « Pas son genre » de Giulia Foïs.

[Virgule sonore]

[Chronique « Pas son genre » de Giulia Foïs. La chronique n'est pas transcrite]

Ali Rebeihi : Grand bien vous fasse sur France Inter.

Ali Rebeihi : 10 heures 43 Faut-il avoir peur des algorithmes ? C’est notre thème ce matin avec la docteure en Science Aurélie Jean et le chercheur en psychologie cognitive Jean-François Bonnefon. Standard ouvert au 01 45 25 7000.

Voix off : C’est un accident qui pourrait remettre en cause la voiture Tesla. Équipée d’un système d’auto-pilote, nul besoin de tenir son volant pour conduire cette voiture. Mais le 7 mai dernier aux États-Unis un de ces modèles a été impliqué dans un violent accident. Le véhicule était sur lune autoroute à double sens quand soudain un poids lourd a voulu se rabattre. Ni l’auto-pilote ni le conducteur n’ont détecté la manœuvre.

« Il est allé beaucoup trop vite je ne l’ai pas vu. »

Dans cette vidéo filmée par le conducteur, l’impact avait déjà été évité. Selon l’automobiliste, c’est sa voiture qui lui aurait sauvé la vie.
Cet accident met la compagnie dans une situation très inconfortable alors que son patron avait, quelques semaines plus tôt, promis de révolutionner la conduite autonome : « Je peux vous dire avec confiance que dans trois ans la voiture pourra vous amener d’un point à l’autre sans que vous ne touchiez quelque chose. Vous pouvez dormir pendant tout ce temps. »

Ali Rebeihi : Extrait de CNEWS en 2016. Il s’agit là d’une voiture avec conducteur, dotée d’un pilotage automatique. La voiture sans conducteur fascine et effraie à la fois. Jean-François Bonnefon, je rappelle que vous publiez La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?

Jean-François Bonnefon : Oui, c’est un exemple fascinant parce que c’est un objet qu’on a eu dans nos vies depuis longtemps et qui, tout à coup, change de statut.

Ali Rebeihi : La voiture sans conducteur est un objet de science-fiction et ça va devenir réalité.

Jean-François Bonnefon : Oui. Peut-être au sens où Elon Musk en parlait là : la voiture qui va vous amener de n’importe quel point A à n’importe quel point B sans que vous ne touchiez jamais un volant, je ne sais pas si on y arrivera. En tout cas, dans certaines conditions, une voiture qui se conduit de façon parfaitement autonome, oui, on y arrive.

Ali Rebeihi : Les algorithmes des voitures sans conducteur vont nous confronter à des choix moraux très importants. Vous avez conçu, Jean-François Bonnefon, une machine qui a obtenu un succès planétaire, la Moral Machine. Je crois qu’il y a eu combien ? 100 millions de personnes qui ont testé cette Moral Machine ?

Jean-François Bonnefon : 100 millions de réponses.

Ali Rebeihi : De réponses.

Jean-François Bonnefon : Bien sûr. Certaines personnes jouent longtemps, donnent plein de réponses, mais on a probablement plus de 10 millions de personnes maintenant.

Ali Rebeihi : Cette Moral Machine permet de collecter les préférences morales des gens au volant d’une voiture sans conducteur, évidemment c’est virtuel. C’est une base de données pour déterminer les algorithmes les plus acceptables pour les populations ? C’est ça ?

Jean-François Bonnefon : Oui. Au sens où la Machine Morale vous donne systématiquement le choix entre plusieurs accidents. La voiture autonome va s’écraser et va faire des victimes, mais vous avez, à chaque fois, la possibilité de choisir ces victimes. Grâce à la masse de données que nous obtenons avec ce site nous pouvons tester des situations extrêmement complexes et extraire les préférences des gens selon de multiples dimensions.

Ali Rebeihi : Pouvez-vous donner un exemple ? Je suis au volant de cette voiture sans conducteur, je ne suis pas au volant, je suis dans cette voiture sans conducteur, quelles sont, par exemple, les options ?

Jean-François Bonnefon : Quand nous avions commencé à travailler sur ce sujet, nous nous contentions de situations extrêmement simples, en disant « il y a une personne à gauche et deux personnes à droite, qu’est-ce que la voiture devrait faire ? » C’était un peu limité. Dans la Machine Morale nous avons pu insérer des millions de situations du type « en face de moi il y a une femme enceinte et deux grand-mères ; de l’autre côté il y a deux petites filles qui traversent au rouge, qu’est-ce que la voiture devrait faire ? »

Ali Rebeihi : Quel est le consensus moral que vous avez pu recueillir dans vos recherches ? Quelles sont d’abord, peut-être, les dimensions morales explorées par cette machine ?

Jean-François Bonnefon : Je ne vais peut-être pas toutes les citer parce qu’il y en a neuf.

Ali Rebeihi : Je vais les citer, elles sont page 60 de votre livre :

  • 1. Le nombre de personnages : préférez-vous sauver le groupe le plus nombreux ?
  • 2. Le sexe des personnages : préférez-vous sauver les hommes ou les femmes ?
  • 3. L’âge : préférez-vous épargner les bébés, les enfants, les adultes ou les personnes âgées ?
  • 4. L’état de santé : préférez-vous sauver des personnes en bonne forme physique ?
  • 5. Le statut social : préférez-vous épargner des individus au statut social plus élevé ?
  • 6. L’espèce : préférez-vous sauver les humains ou les animaux ?
  • 7. La situation sur la route : préférez-vous sauver les passagers ou les piétons ?
  • 8. La légalité : préférez-vous sauver les piétons qui traversent légalement ou sacrifier ceux qui traversent illégalement ? C’est ce que je ferais ! Non, je plaisante !
  • 9. Le statu quo : préférez-vous ne rien faire et laisser la voiture continuer tout droit plutôt que de la faire dévier ?

Voilà les neuf dimensions morales que vous avez soumises à la sagacité des internautes. Qu’est-ce qui se dégage ?

Jean-François Bonnefon : Ce qui se dégage c’est déjà un grand top 3, très clair : les humains plutôt que les animaux.

Ali Rebeihi : Ouf !

Jean-François Bonnefon : Il y a des gens qui pourraient ne pas être d’accord.
Le nombre de personnes, plus plutôt que moins, et puis l’âge avec une forte préférence pour prioriser la sécurité des enfants.
Ensuite, on va rentrer dans des choses qui sont moins fortes et nettement plus controversées : vous avez parlé du statut social. Les gens préfèrent sacrifier les sans-abri dans les scénarios de Moral Machine, ce qui est un paramètre qu’on nous a énormément reproché pendant tout le temps où on a collecté ces données. On nous disait : « Pourquoi est-ce que vous avez mis un sans-abri dans ces histoires ? Déjà les voitures ne les reconnaîtront pas et puis c’est moralement répugnant, même de poser la question. » Ce qu’on voulait c’était précisément avoir un exemple où on s’attendait à ce que les gens sacrifient les sans-abris et on allait pouvoir dire « regardez, voilà un bon exemple de pourquoi on ne peut pas suivre aveuglément les choix que font les gens dans Moral Machine. »

Ali Rebeihi : On vous a accusés d’encourager la discrimination et d’autres vous ont reproché l’absence de certaines caractéristiques comme l’origine ethnique ou la religion.

Jean-François Bonnefon : Exactement. C’est un choix qu’on avait fait très tôt, je crois même dans le premier quart d’heure. On est dans une boulangerie à Cambridge, on commence à imaginer Moral Machine et on commence à lister les dimensions qu’on va mettre dedans. Comme j’étais le seul blanc de l’équipe, quelqu’un suggère « est-ce qu’on met la couleur de peau dans Moral Machine ? » et tous ont dit : « Non, il ne faut pas qu’on fasse ça, parce que c’est la recette garantie pour que des gens s’organisent dans des coins pas très recommandables d’Internet et viennent en masse sur Moral Machine sacrifier les gens dont la couleur de peau ne leur plaît pas. »

Ali Rebeihi : Rappelez-nous à quoi peut servir cette Moral Machine ?

Jean-François Bonnefon : Je répète, le but ce n’est pas de dire aux gouvernements « regardez, nous avons les données dans votre pays, vous n’avez plus qu’à suivre les préférences de vos citoyens. » Pour nous, l’intérêt c’était de permettre aux gouvernements d’anticiper des frictions dans leur opinion, de dire, par exemple, « vous pouvez faire le choix de ne pas prioriser la sécurité des enfants, c’est un choix tout à fait légitime, mais préparez-vous à bien expliquer ça à votre population et ayez un plan en place pour le jour où une voiture autonome tuera un enfant alors qu’elle aurait pu l’éviter parce que là, vous allez avoir dans l’opinion publique un bâclage qui va être très fort. »

Ali Rebeihi : Est-ce que les variations morales varient beaucoup selon qu’on habite Toulouse, Jérusalem, Moscou ou Douala ?

Jean-François Bonnefon : Elles varient beaucoup mais en un sens un peu précis, c’est-à-dire qu’elles ne changent jamais de direction.

Ali Rebeihi : C’est-à-dire ?

Jean-François Bonnefon : Quand je dis que les gens préfèrent sauver le plus grand nombre, ils préfèrent sauver le plus grand nombre dans tous les pays. Quand je dis que les gens préfèrent sauver les enfants, ils préfèrent sauver les enfants dans tous les pays. Donc la direction reste toujours la même, par contre il y a de grosses variations dans la force des préférences. Par exemple, la force de la préférence pour sauver les enfants est beaucoup plus élevée dans le monde occidental que dans les pays d’Asie ou du Moyen-Orient où la préférence pour sauver les enfants versus les personnes âgées commence à s’estomper.

Ali Rebeihi : Aurélie Jean, sur cette Moral Machine ? Vous avez publié un article.

Aurélie Jean : On avait testé avec le professeur Esposito, Terence Tse et Joshua Entsminger. On avait travaillé, on avait testé la Moral Machine il y a deux ans, je crois. Moi j’avais adoré. C’est embarrassant.

Ali Rebeihi : C’est très embarrassant.

Aurélie Jean : C’est très embarrassant, mais je trouve que intéressant de faire ce genre de test. On avait fait un papier3. Justement, à partir de ce test, on avait réfléchi à ce que voulait dire d’avoir la voiture autonome niveau 5, entièrement autonome, déployée dans le monde.

Ali Rebeihi : Ça veut dire quoi niveau 5 ?

Aurélie Jean : Niveau 5 c’est l’autonomie complète.

Ali Rebeihi : Totale.

Aurélie Jean : C’est-à-dire qu’il n’y a pas besoin de volant, il n’y a pas de conducteur du tout, parce qu’il y a déjà des voitures autonomes aujourd’hui, semi-autonomes j’entends. Donc il y aavait plusieurs raisons pour lesquelles, c’était notre conclusion de l’article, on ne peut pas les déployer dans le monde. Une raison d’abord technique, comme le dit Luc Julia, avoir une voiture autonome niveau 5 qui passe la place de l’Étoile ce n’est pas possible, sur les autoroutes oui. Par contre, il y a des considérations morales, typiquement il y a dilemmes, des questions auxquelles on ne va pas répondre, même si, en fait, avec ces voitures autonomes on aurait au final moins d’accidents que si on a des voitures pas autonomes, en fait l’erreur machine n’est pas acceptée socialement donc ce n’est pas possible. Il y avait aussi des questions légales. C’est-à-dire que si vous avez une voiture qui est construite au Canada, qui traverse la frontière pour aller rouler aux États-Unis, légalement les lois ne sont pas les mêmes, la culture est différente, les algorithmes seront différents donc qu’est-ce qu’on fait ?

Ali Rebeihi : Aurélie Jean dit une chose très intéressante : les erreurs machine. Les erreurs des algorithmes sont peu acceptables socialement dans les populations. Alors que l’erreur humaine, bon ! Elle passe beaucoup mieux.

Jean-François Bonnefon : C’est vrai, c’est un effet qu’on remarque : les gens pardonnent plus leurs erreurs aux humains qu’aux algorithmes et franchement on peut comprendre. Quand un humain fait une erreur, je n’en tire pas la conclusion que cet humain va faire des erreurs tout le temps à l’avenir. Alors qu’un algorithme qui fait une erreur, je peux me dire que c’est peut-être un signal sur son comportement dans le futur.

Aurélie Jean : Et aussi les questions de responsabilité.

Ali Rebeihi : Qu’est-ce qui empêchera les constructeurs d’automobiles sans conducteur de programmer des algorithmes pour toujours sauver les passagers ?

Jean-François Bonnefon : Déjà la régulation. On peut s’attendre à ce que les gouvernements prennent leurs responsabilités et disent que si les voitures autonomes augmentent la sécurité sur la route, il faut qu’elles augmentent la sécurité de tout le monde, pas qu’elles augmentent la sécurité uniquement d’un certain groupe d’usagers aux dépens de celle des autres. Je pense que c’est quand même une direction qu’on va prendre. Il y a aussi la très mauvaise publicité. Le marché des voitures autonomes ce n’est quand même pas encore énorme comparé au marché des voitures conventionnelles et l’histoire de Mercedes nous l’apprend.

Ali Rebeihi : Rappelez-nous cette histoire.

Jean-François Bonnefon : Un cadre de Mercedes laisse entendre dans une interview que les Mercedes autonomes privilégieront toujours la vie de leurs passagers. Peut-être que c’est séduisant pour la très petite partie des clients de Mercedes qui sont intéressés par ces voitures autonomes, mais si c’est répugnant pour les 99 % qui achètent des Mercedes conventionnelles, alors ce n’est pas une opération commerciale géniale.

Ali Rebeihi : Jean-François Bonnefon, la Commission européenne vous a confié la présidence d’un groupe sur l’éthique des voitures sans conducteur. Qui compose ce groupe d’experts ? Les conclusions de ce groupe seront-elles impératives ?

Jean-François Bonnefon : Qui compose ? Une quinzaine de personnes qui viennent d’horizons différents. Il y a des juristes, des ingénieurs, des philosophes, un psychologue, moi-même. Maintenant est-ce que ses conclusions seront contraignantes ? Pas du tout. La régulation, la législation européenne c’est un long processus, là c’est un peu la première étape. C’est-à-dire qu’on réunit des experts qui essaient de débroussailler le terrain, de donner maintenant des pistes de régulation qui se veulent être les plus précises possible. Ensuite ça, ça va atterrir sur le bureau de quelqu’un avec dix autres rapports sur la question, qui va commencer à transformer ça possiblement en loi et ensuite, un processus très long est engagé..

Ali Rebeihi : Est-ce qu’on se rend assez compte de la révolution des voitures sans conducteur dans les dix, quinze ans qui viennent ?

Jean-François Bonnefon : Je pense que moi-même je ne m’en rends pas vraiment compte. C’est très difficile.

Ali Rebeihi : C’est comme si on avait posé la question sur Internet en 1995 ?

Jean-François Bonnefon : C’est ça. Parfois on imagine des scénarios : ce qui va se passer le jour où toutes les voitures seront autonomes ? Est-ce que ça veut dire qu’elles seront tellement confortables que tout le monde va vouloir prendre sa voiture, qu’on va se retrouver avec plus de voitures sur les routes, etc. ? En, fait la difficulté dans tous ces scénarios, c’est que même si tout le monde commençait à acheter une voiture autonome maintenant, ça prendrait encore 30 ans pour renouveler le parc. Donc on a vraiment beaucoup de temps avant d’arriver dans ces scénarios-là.

Ali Rebeihi : On s’est posé des questions morales avec les voitures sans conducteur.
Aurélie Jean, dans votre livre, vous regrettez que l’éthique manque cruellement dans la formation, dans les formations de scientifiques. Pour vous, il est urgent que les scientifiques deviennent ou redeviennent philosophes.

Aurélie Jean : Oui. Je le dis parce que par ma propre expérience, quand j’ai commencé à faire de la recherche dans le milieu médical, appliquée au milieu médical, j’ai eu, toujours parce que mon professeur, Joshua Entsminger, me l’avait conseillé, il m’avait dit : « Il faut que tu suives un cours d’éthique à l’université d’État de Pennsylvanie. » Donc j’ai suivi un cours de six mois d’éthique et je m’en sers encore aujourd’hui. Honnêtement, en tout cas en école doctorale, je pense que ça devrait être obligatoire.

Ali Rebeihi : Vous êtes d’abord avec ça, Jean-François Bonnefon ? Que l’éthique, la philosophie morale, soient obligatoires au niveau doctoral pour les scientifiques et après, bien sûr ?

Jean-François Bonnefon : C’est un toujours un coût d’opportunité, parce que pendant qu’ils font ça ils ne font pas autre chose, mais oui, c’est probablement une bonne idée. Oui.

Ali Rebeihi : Et dans la culture plus générale, la culture générale du 21e siècle, doit figurer, vous le dites à la fin de votre livre, la question du comment on passe du monde virtuel au monde réel et pour vous ça éviterait à la fois les amalgames, les discours catastrophistes.

Aurélie Jean : Et ça éviterait aussi les confusions, comme vous l’avez dit, c’est-à-dire qu’il y a un objet qui nous sépare de ce monde virtuel, de ce monde réel, qui est l’algorithme, le modèle, on peut donner plein de noms. Il faut toujours prendre conscience, il ne faut pas oublier qu’il y a ce miroir, il ne faut pas oublier qu’il y a cet algorithme, donc comprendre ce qu’il fait. En fait, au fur et à mesure du temps, ces deux mondes vont être de plus en plus similaires, donc il ne faut pas se tromper. Je donne l’exemple de la machine, du robot qui va vous dire « je t’aime », ça ne veut pas dire qu’il vous aime ; là, le miroir devient flou en fait.

Ali Rebeihi : Jean-François Bonnefon, un mot de conclusion.

Jean-François Bonnefon : Je crois que là il va falloir prendre nos responsabilités. C’est vrai que c’est important d’éduquer toute la population, de sensibiliser aux problèmes d'éthique des algorithmes parce que ce sont des choix qu’on ne peut pas laisser aux constructeurs ou même entièrement aux régulateurs, il va falloir que tout le monde y prenne part.

Ali Rebeihi : Pour vous, Aurélie Jean, l’une des grandes opportunités de la révolution algorithmique que nous sommes en train de vivre c’est qu’elle va nous obliger à miser sur ce qu’il y a de plus humain en nous et sur notre créativité.

Aurélie Jean : Je suis complètement d’accord.

Ali Rebeihi : Vous êtes très optimiste !

Aurélie Jean : Non, parce que je parle aussi de menace dans le livre, je suis quand même assez réaliste, mais c’est vrai que je pense que c’est une belle révolution qui nous est offerte à savoir se concentrer sur les choses que nous seuls pouvons faire et surtout comprendre que même si un algorithme peut faire des choses, ça ne veut pas dire qu’on le laissera faire.

Ali Rebeihi : Quelle est la principale menace qui vous effraie et à laquelle il faut que nous tous, citoyens, soyons vraiment attentifs ?

Aurélie Jean : C’est la perte de cohésion sociale due à un mauvais usage des algorithmes ou simplement à des discriminations technologiques propres aux biais algorithmiques.

Ali Rebeihi : J’aimerais terminer avec ces mots du chercheur en intelligence artificielle Antoine Bordes.

Aurélie Jean : C’est un de mes amis.

Ali Rebeihi : « Il faut distinguer ce que l’intelligence artificielle sait faire de ce qu’elle ne sait pas encore faire et de ce qu’elle ne saura jamais. »
Merci beaucoup Aurélie Jean. Merci pour votre livre De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes, c’est publié aux Éditions de l’Observatoire.
Je recommande également votre livre, Jean-François Bonnefon La voiture qui en savait trop. L’intelligence artificielle a-t-elle une morale ?, c’est publié chez HumenSciences.

Demain nous vous attendons nombreux au Palais des Festivals et des Congrès de Cannes à l’occasion du Festival international des Jeux, émission en direct et en public. On s’intéressera aux bienfaits des jeux de société. Nous vous attendons dès 9 heures et demie au Palais des Festivals et des Congrès à Cannes.

La ligne rouge de la souveraineté numérique - Les Éclaireurs du numérique

mar, 07/28/2020 - 11:38


Titre : La ligne rouge de la souveraineté numérique
Intervenants : Tariq Krim - Fabrice Epelboin - Damien Douani - Bertrand Lenotre
Lieu : Les Éclaireurs du Numérique, podcast #49
Date : juin 2020
Durée : 33 min
Écouter le podcast
Licence de la transcription : Verbatim
Illustration : Données concernant la santé, Privacy Icons - Licence Creative Commons Attribution-NoDerivatives 4.0 International
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les Éclaireurs du Numérique invitent Tariq Krim (Netvibes, CNNum, Jolicloud, Polite.one…) pour décrypter l'absence de souveraineté numérique française. Quelle histoire, quels choix, quelles erreurs, quels enjeux, quelles solutions ?

Transcription

Voix de Tariq Krim : En fait on paye la R&D des uns et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l’optimisation fiscale.

Voix off : Le podcast des Éclaireurs, les enjeux cachés d’Internet.

Bertrand Lenotre : Salut tout le monde et bienvenue dans un nouvel épisode, connectés et confinés, des Éclaireurs du Numérique avec, comme d’habitude, Damien Douani chez lui. Salut Damien.

Damien Douani : Salut. On a décidé de rester à l’intérieur, il fait trop chaud dehors.

Bertrand Lenotre : Avec Fabrice Epelboin chez lui. Salut Fabrice.

Fabrice Epelboin : Salut.

Bertrand Lenotre : Et avec un invité aujourd’hui, Tariq Krim, chez lui j’imagine. Salut Tariq.

Tariq Krim : Absolument. Bonjour.

Bertrand Lenotre : Tu vas bien ? Tout s’est bien passé pour toi pendant cette période ?

Tariq Krim : Ça va. C’était un peu compliqué, mais ça va.

Bertrand Lenotre : On va parler aujourd’hui de souveraineté numérique, une fois n’est pas coutume dans ce rendez-vous, et de la ligne rouge, a-t-elle été franchie récemment ? C’est un peu la question qu’on va se poser tous les quatre ensemble.
Tariq, tu es le fondateur de Netvibes1, ça ne nous rajeunit cette histoire-là ! Tu es le fondateur de Jolicloud2 qui était un environnement, fondateur également de la plateforme Polite3 pour la renaissance éthique de l’Internet autour d’un concept qu’on appelle le slow Web. On est bons jusque-là ?

Tariq Krim : Oui, absolument.

Bertrand Lenotre : Tu as remis en 2014 à Fleur Pellerin un rapport4 en tant que vice-président du Conseil national du numérique5, six recommandations pour améliorer la reconnaissance de la filière des développeurs. On va peut-être revenir là-dessus, parce que tout ce qui n’a pas été mis en place en 2014, finalement, aujourd’hui en on paye un tout petit peu le prix. Tu as été auditionné au Sénat par la commission d’enquête sur la souveraineté numérique, ça tombe bien, assez récemment, donc tu es quelqu’un qui connaît un peu l’histoire du Web depuis toujours.
Un mot sur StopCovid.

Tariq Krim : Je m’étais déjà un peu exprimé là-dessus dans la presse. Je pense que StopCovid6 c’est finalement une occasion ratée. Quand on pense que la relation numérique que les citoyens ont avec l’État sur les questions de santé est assez limitée – on peut appeler le 15, on peut éventuellement aller à l’hôpital aux urgences – et là on avait une opportunité d’imaginer quelque chose de bienveillant, d’accompagnateur et finalement, dès le départ, on a eu une forme d’ethos assez liée à la surveillance. On s’est focalisé là-dessus à tel point, d’ailleurs, que les journalistes n’ont parlé que ce ça : est-ce que StopCovid est une application de surveillance numérique ? Elle a été faite avec une certaine opacité, beaucoup de rebondissements et, au final, elle sort dans des conditions qui ne sont pas optimales.

Bertrand Lenotre : Qu’est-ce que vous en pensez Fabrice et Damien ?

Fabrice Epelboin : L’application StopCovid sert vraiment à quelque chose. C’est une belle opération de sensibilisation de la population à la problématique de la surveillance. Objectivement, ça ne servira guère qu’à cela. Et comme on pourra, ça a été montré aujourd’hui sur Twitter, injecter des faux numéros d’identification qu’on pourra, par ailleurs, facilement aller récupérer en s’approchant des cibles qui, elles, utilisent l’application, ça va être très rigolo.

Bertrand Lenotre : On va se marrer !

Fabrice Epelboin : Oui, je pense que ça va être une grande séance de rigolade, bien mieux qu’Hadopi.

Bertrand Lenotre : Damien ?

Damien Douani : Pour cette application je crois, de ce que j’ai vu, que Cédric O a fait le forcing autour de cette application, l’exécutif n’était pas super chaud parce qu’il avait suffisamment de choses à traiter. Pour moi c’est un peu la quintessence du solutionnisme technologique, mâtinée certainement de lobbying bien appuyé derrière, pour faire en sorte de développer une application qui, au pire si je puis dire, servira de brouillon à d’autres essais divers et variés ou, a minima, permettra déjà d’avoir rempli le carnet de commandes de Cap G entre autres, mais fera surtout en sorte, effectivement, qu’on ait la sensation de se dire « tiens on a fait comme les autres et, en plus de ça, nous avons pu bomber le torse, nous Français, nous avons développé une solution à la barbe des GAFAM, nous sommes trop des souverains sur notre numérique national ! »

Voix off de Cédric O : Nous avions le choix entre prendre une solution française, l’évaluation technique était très claire, qui ne nous permettait pas, et je le regrette, qui ne nous permettait pas de faire les recherches scientifiques que nous souhaitions faire sur les données de santé. Étant donné les retards européens dans le cloud, nous n’avions pas la possibilité de faire tourner des algorithmes d’intelligence artificielle aussi développés, sur infrastructure française, que sur infrastructure américaine.
Je pense que la seule leçon qu’il faut tirer de cela c’est que, dans l’après crise, la question du cloud pour toutes les entreprises et pour les institutions françaises est absolument extrêmement importante.

Bertrand Lenotre : Ça c’est qu’a dit Cédric O, ça ne concernait pas StopCovid, ça concernait le Health Data Hub qui est hébergé par des serveurs de Microsoft et traité sur des serveurs de Microsoft. StopCovid, même si ce n’est pas à l’intérieur du même process, vient aussi rejoindre les serveurs de Microsoft .
Est-ce que ça vous a fait bondir ce qui a été dit là par Cédric O sur l’incapacité française et européenne à offrir la moindre solution potentielle au cloud ? Tariq, le cloud ça te dit quelque chose, tu connais bien l’histoire.

Tariq Krim : Je dirais que ce qui m’a un peu choqué – la réponse à la même question qui était posée par la sénatrice Catherine Morin-Desailly qui avait déjà publié, il y a quelques années, un rapport7 sur la colonisation européenne par le monde numérique, donc qui connaît bien le sujet – déjà, ce qui m’a gêné, c’est qu’on se permet, en fait, de dénigrer les sociétés françaises dans le cadre de l’hémicycle. Dans un autre domaine, on ne se serait pas permis. Aucun ministre du transport ne se serait permis de dire « le TGV c’est nul par rapport aux solutions chinoises ou japonaises ou… ». Déjà il y avait quelque chose qui me rendait mal à l’aise.
Il dit clairement qu’il est à l’origine du choix de Microsoft, il donne d’ailleurs ses arguments qui sont exclusivement des arguments financiers. Et là se pose évidemment la question de la ligne rouge : est-ce que dans l’hébergement de données sur les GAFAM tout est permis ? Est-ce qu’on peut mettre les codes nucléaires sur le cloud de Microsoft ? La banque de France ? Apparemment il semblerait qu’il y ait une bisbille là-dessus, doit-elle tourner sur un cloud étranger ? Ça c’est la première chose.
La deuxième chose qui est assez embêtante c’est qu’on n’a pas l’impression que ce projet s’inscrit dans une vision à long terme. C’est-à-dire que les données de santé c’est un des assets, c’est un des éléments les plus importants de notre politique à venir. Ça aurait dû faire l’objet d’un débat, d’un projet de loi important, d’une organisation budgétaire, de s’assurer, de savoir qui, comment, quoi va se faire.
Et puis la troisième chose qui me gêne c’est qu’on a un peu l’impression qu’on est dans une sorte de logique de privatisation qui ne dit pas son nom. En gros, c’est à nous, enfin l’État, de supporter les coûts de la santé – payer les hôpitaux, le personnel soignant, la Sécurité sociale – et on va laisser des acteurs, certaines startups, bénéficier de la valeur créée, c’est-à-dire les données de santé, c’est-à-dire l’avenir. D’une certaine manière, je disais souvent que pour qu’on ait ces données, il y a des gens qui ont littéralement donné leur vie, c’est-à-dire que ces données proviennent des hôpitaux. D’ailleurs, on a fait passer en catimini un décret qui oblige de faire remonter ces données, en pleine pandémie. Moi je trouve ça assez inacceptable, c’est-à-dire que ça donne l’impression que ce projet est mal ficelé et surtout qu’on n’a pas pris conscience de l’importance que ça aura dans le futur. J’ai un peu l’impression qu’on brade un des assets les plus importants de l’État au mieux disant ou au plus offrant.

Bertrand Lenotre : Là on est vraiment en train de parler du Health Data Hub, le HDH pour les intimes, qui va regrouper toutes les données qui vont être captées partout, par tous les systèmes de santé en France, qui va les traiter et qui va pouvoir faire du prévisionnel avec du deep learning, concrètement sur ces data-là. On n’était pas capable, de faire ça en France selon Cédric O. On est bien d’accord que tout ce qui nous concerne au niveau de la santé sera sur des serveurs de Microsoft ? C’est bien ça l’enjeu, sur le futur ?

Fabrice Epelboin : C’est vraiment ça et je vais me permettre de ne pas être d’accord avec toi Tariq, moi je trouve ce projet plutôt bien ficelé. On commence à voir comment il a démarré. Il a démarré à travers un contrat cadre, pas exactement au même titre que les contrats cadres de l’Armée qui avait déjà cédé une partie de son infrastructure à Microsoft, malgré tout un contrat cadre avec Microsoft qui a fait ce qu’on appelle un proof of concept c’est-à-dire une espèce de produit minimum pour prouver qu’effectivement il y avait moyen de faire ce fameux hub et qui, ensuite, a continué à travailler, a développé tout ça, et forcément a un peu déterminé les caractéristiques des besoins. Ce qui fait que très rapidement on s’est – hasard, coïncidence, allez savoir ! – retrouvé dans des besoins qui étaient uniquement possibles avec Microsoft. Donc forcément, c’est une façon commode d’éliminer des acteurs comme OVH8 et, pour le coup, ça montre que tout ça est extrêmement bien ficelé.
Je trouve qu’ils ont bien géré ce projet, simplement, évidemment, ils ne l’ont pas forcément géré dans l’intérêt des Français, mais c’est une autre histoire !

Bertrand Lenotre : Je voudrais citer juste un tweet d’Octave Kabla qui s’est énervé, une fois n’est pas coutume, ce n’est pas l’habitude chez Octave Kabla qui est le patron, le créateur d’OVH, qui dit : « C’est la peur de faire confiance aux acteurs français de l’écosystème qui motive ce genre de décision. La solution existe toujours. Le lobbying de la religion Microsoft arrive à faire croire le contraire. C’est un combat, on va continuer, un jour on gagnera ensemble ». C’est une vraie déclaration à la fois d’intention et puis un constat d’échec total. C’est-à-dire qu’OVH a l’État contre lui et les entreprises françaises ont l’État contre elles.

Damien Douani : Je pense qu’il y a un truc qu’il faut voir c’est que toutes les boîtes comme Microsoft, IBM ou autres, ont une caractéristique que n’a peut-être pas OVH, je ne sais pas, je serais heureux d’en discuter avec Octave, Tariq pourra peut-être réagir là-dessus. Il y a ce que j’appelle la jurisprudence de ces boîtes, Microsoft, IBM ou autres. C’est-à-dire en gros, quand vous êtes un DSI, que vous êtes dans une entreprise, vous savez très bien que prendre un de ces acteurs ça vous met, on va dire, face à zéro problème. Autrement dit s’il y a un a souci vous direz « ah oui, mais j’ai pris du Microsoft ou de l’IBM ou du Oracle – ce que vous voulez – et ça devait marcher, il ne devait pas y avoir de problème ».
Je me demande si, quelque part au sein de l’État, il n’y a pas un peu cette logique de DSI, autrement dit « je prends le minimum possible de risques », sachant qu’en plus je suis convaincu que des gens comme Microsoft ou autres ont une très bonne force de frappe commerciale, un très bon enrobage de tout ça et de dire, en gros, si vous avez un problème on sera là pour vous, ne vous inquiétez pas. Je ne sais pas si OVH sait faire ça, mais je pense qu’il y a quand même ça derrière, en fond de tâche on va dire, au-delà des aspects lobbying ou autres, cet aspect, ce côté « on sera tranquilles », mais sans la compréhension d’un élément clef qui nous réunit aujourd’hui autour du micro qui est cette notion de souveraineté nationale, qui est le fait de se dire que ce n’est pas neutre de mettre des données sensibles sur des serveurs qui, même s’ils sont situés en Europe par exemple, font qu’ils sont dans les mains d’une société qui n’est pas forcément une société nationale ou européenne. Je pense que le point clef est là, le point de bascule est à cet endroit.

Fabrice Epelboin : En même temps il faut les comprendre, la souveraineté c’était du fascisme il y a encore trois mois.

Bertrand Lenotre : Le mélange des mots, le poids des mots, le choc des photons comme dirait l’autre, fait qu’on n’arrive pas à utiliser le mot souveraineté pour le numérique. C’est ça ?

Fabrice Epelboin : Je pense que c’était un concept sur lequel on pouvait aisément s’essuyer les pieds il y a encore très peu de temps jusqu’au jour où il nous a explosé à la gueule et qu'il est sorti de son pré carré habituel qui était l’extrême droite française. La souveraineté numérique n’a pas grand-chose à voir avec l’extrême droite française, mais, en dehors de cette petite bulle, c’est quand même une niche qui est très largement occupée par l’extrême droite française. Là elle s’impose à nous.

Bertrand Lenotre : Est-ce que quelque part on n’a pas une génération de fonctionnaires traumatisés par le fait que, pendant des années, on a développé des grands projets nationaux du style et Thomson et X.25 et le Minitel et le Plan Câble et plein de choses comme ça qui ont toutes fini à la poubelle en dépensant un fric monstre qui fait que, au final, ils se réfèrent aujourd’hui au fait de se dire « mieux vaut acheter des solutions internationales. Déjà on fera comme tout le monde, on est secure et quelque part ce n’est pas plus mal parce qu’on a démontré qu’on n’était pas si bons que ça ».

Tariq Krim : Je ne pense pas, je vais dire pourquoi. Déjà je pense que le Minitel a été un grand succès. C’est un produit qui a été déployé, chipé, utilisé par des millions de gens pendant des années, ça marchait très bien. L’objectif du Minitel, rappelons-nous, c’était d’éliminer l’annuaire papier et ça a très bien marché, des grands-mères l’utilisaient, les gens ont découvert le e-commerce. Je crois que le vrai sujet c’est, qu’en fait, on avait dans le Minitel une infrastructure logicielle très centralisée, c’est-à-dire que c’était une équipe qui développait tout et on déployait à tout le monde et ça, ça marchait. Avec Internet on est entré dans un monde décentralisé où il fallait, en fait, être présent dans l’écriture du logiciel, dans les développements, dans un ensemble de choses qui allaient devenir nécessaires, dans la distribution de vidéos, donc à la fois au niveau des protocoles, au niveau des réseaux, des technologies de réseau, mais également au niveau des produits finaux. Et là, curieusement, plutôt que d’investir à la fois dans le logiciel libre, dans toutes les technologies qui allaient nous permettre d’avoir une bibliothèque de logiciels qui nous permettraient des outils, qui permettraient de développer des choses, on a essentiellement décidé de se focaliser sur les usages – c’est un terme que je n’ai jamais vraiment compris au sein de l’administration française – et sur le déploiement du haut débit. Finalement, à la fin, on est devenus des super câblo-opérateurs, des super opérateurs mobiles, mais qui étaient incapables de faire fonctionner les choses qu’il y avait à l’intérieur.
De toute façon il faut être clair il y a deux internets.
Il y a le premier internet qui est libre et gratuit, qui s’appuie sur le Web, qui a été ouvert, qui a été inventé en Europe parce qu’il faut rappeler que Linux et le Web ont été inventés en Europe.
Ensuite, il y a un deuxième internet que j’appelle plutôt l’Internet boîte noire, qui démarre un peu avant l’iPhone, qui lui est basé sur des formalisations complètement fermées et là on vit à l’intérieur des Mac, des PC, des iPhones et des devices et là effectivement, à aucun moment on n’a su, au niveau européen, pas uniquement français, exister. Les Chinois ont une vision différente ils ont dit « on va refaire un Android et on va obliger Apple à installer notre App Store, nos conditions ». On aurait dû faire quelque chose de similaire, on aurait dû s’assurer qu’il y ait de la concurrence d’App Store, de la concurrence de browser, que l’on puisse exister sur ces téléphones sans passer sous les fourches caudines. On le voit aujourd’hui pour l’application StopCovid, le gouvernement est obligé d’attendre que l’ingénieur d’Apple, à Cupertino, appuie sur le bouton « OK, c’est mis en production ». Alors que normalement, dans un monde idéal, on aurait pu développer sur ces plateformes comme on développait avant sur Windows et autres.
Je pense qu’il y a eu vraiment une méconnaissance du logiciel et surtout une perversion du système qui fait que les rares éditeurs de solutions, notamment en logiciels libres, ne sont jamais, en fait, soutenus par l’État. C’est-à-dire que d’un côté on a l’État qui donne de l’argent en subventions ou en aides à la recherche à plein de sociétés et quand il s’agit ensuite d’acheter des produits, eh bien soit on prend les produits sur étagère des grands groupes, qui sont un peu des Frankenstein c’est-à-dire des montages de plein de choses, on ne sait pas trop. Par exemple maintenant Orange il y a du Huawei et de l’Amazon Web Services, il y a plein de services packadgés derrière la marque Orange Business Services. Donc au lieu de prendre les petites boîtes, de les soutenir et de leur donner une assise, on préfère, à partir de là, considérer que le logiciel est neutre. Finalement, qu’on prenne du Microsoft ou qu’on prenne du OVH ou que l’on prenne du Scikit-learn ou que l’on prenne un autre produit – Scikit-learn9 est quand même la techno star de l’intelligence artificielle qui est développée en France par l’Inria – à partir de là tout ça ce sont des détails techniques. Je pense qu’il y a aussi un manque d’expertise technique, je crois que Fabrice l’expliquait dans un de ses tweets, les comex des grands groupes n’ont aucun ingénieur ou développeur ou personne capable de leur expliquer que ce qu’ils disent parfois à la télévision n’est pas totalement vrai.

Bertrand Lenotre : Justement, juste un point. Tu as dit un mot clef : « neutre ». Autrement dit, on part du principe aujourd’hui qu’effectivement acheter du cloud Microsoft ou Amazon ou autres c’est comme acheter une boîte de corn-flakes, c’est une parmi tant d’autres sur le marché et puis basta. Ce qui, d’ailleurs très souvent, a été la logique dans une logique de DSI dans les entreprises ou autres. La question est là. Est-ce qu’on peut parler de neutralité lorsqu’on est à la tête d’un État et que l’on veut acheter une prestation de service auprès d’acteurs qui se trouvent être, pour la plupart, américains ou peut-être chinois, bref, en gros pas européens, à part OVH, parce qu’on n’a pas mis ce qu’il fallait sur la table pour pouvoir le faire ? Est-ce que c’est question-là de neutralité qui est en jeu aujourd’hui ?

Tariq Krim : Oui. En fait, il y a plusieurs questions.
La première c’est qu’il n’y a pas que le logiciel, il y a aussi le caractère juridique. Comme vous le savez, il y a maintenant des lois d’extraterritorialité aux États-Unis qui font que lorsque vous utilisez des logiciels américains, avec notamment ce qu’on appelle le CLOUD Act10, il y a une possibilité pour les États-Unis d’avoir accès à certaines données. Il y a aussi un problème d’allégeance, c’est qu’à la fin, finalement, le patron d’une boîte américaine n’a de véritable allégeance qu’au pays qui lui délivre son passeport, ne serait-ce que pour pouvoir se déplacer.
Il y a ça, mais il y a aussi, je crois un schisme. On parle souvent de la startup nation qui est, à la base, un concept israélien mais qui est devenu le leitmotiv de ce gouvernement. On est passé, en fait, du village global à l’exploitation de la misère humaine, qu’elle soit psychologique ou économique. C’est-à-dire que désormais le monde technologique n’est plus neutre politiquement. Au-delà de la neutralité, il y a, évidemment, la neutralité technologique, mais il y a également le problème de la neutralité politique qu’expliquait tout à l’heure Fabrice. Aujourd’hui, acheter à une société, prenons Microsoft mais ça pourrait être Google ou d’autres, ce sont des boîtes qui ont des contrats actifs avec le ministère de la Défense US, ce sont des gens qui ont eu… Vous avez dû voir ce qui s’est passé avec GitHub, les gens qui étaient contre le fait que Microsoft soutiennent ICE [United States Immigration and Customs Enforcement] qui est, en fait, la police de l’immigration qui a enfermé des enfants aux États-Unis dans des conditions absolument catastrophiques. Soudain, se pose la question de ce que l’on finance, c’est-à-dire qu’au départ on ne finance pas uniquement un développement, on finance aussi des gens qui vont avoir des destins singuliers et, en fait, on paye la R & D de Google, Facebook et des autres et en retour, ce qu’on a, c’est la radicalisation algorithmique, ce sont les fake news, c’est l'optimisation fiscale. Donc il y a aussi une question de regarder à plus long terme quelles sont les conséquences de nos actes.
En fait, cette transition du modèle politique des plateformes qui est devenu un modèle assez agressif, notamment avec le Brexit et Trump, c’est quelque chose qui n’avait pas été anticipé par les gens qui en faisaient la promotion. Pour eux, on était encore dans « tout le monde il est beau, tout le monde il est gentil » d’il y a dix ans où on faisait des applications, c'était fantastique, Uber c’était fantastique, Deliveroo c’était fantastique, et aujourd’hui on se rend compte qu’on a, d’une certaine manière, optimisé ces outils qui ont une vision politique. J’appelle les suprémacistes numériques. Pour moi typiquement, le profil du suprémaciste numérique c’est Cédric O qui est d’ailleurs le père fondateur du Health Data Hub dans sa mission. C’est l’idée de se dire qu’en fait l’État ou la société n’est qu’un modèle mathématique que l’on peut modéliser à merci indépendamment des conséquences.
En fait, cette vision est de plus en plus forte. Vous l’entendez quand les gens vous parlent des data, « grâce aux data, grâce aux data », le monde qu’on est en train de nous donner c’est un monde de modélisation et un monde dans lequel on ne tient pas vraiment compte des conséquences de ces modélisations, des conséquences de ces usages, de ces produits. On est, en fait, dans une situation assez drôle c’est qu’aujourd’hui l’intérêt de ces plateformes est diamétralement opposé à celui, évidemment, de notre société. C’est aussi pour ça que je promeus l’idée d’un slow Web. Pour moi, le rôle d’un État c’est aussi de ralentir la société, ce n’est pas de l’accélérer à tout prix.
Ce choix sur étagère qui, à priori, semble neutre, en fait injecte une vision politique dans le logiciel que l’on fait tourner. D’une certaine manière ça me fait regretter le logiciel plan-plan, pas forcément incroyable, mais plan-plan des deux ou trois générations précédentes.

Fabrice Epelboin : C’est clair qu’aujourd’hui les grands acteurs de la technologie sont des acteurs politiques de premier plan. Il y en a certains qui ne sont pas très clairement positionnés, qui essayent d’avoir une relative neutralité, je pense à Apple, mais les autres sont très clairement engagés dans des camps politiques. Facebook a très clairement pris le parti de Donald Trump, là où Twitter est très clairement anti-Trump. Amazon, en ce moment, quand on connaît l’actionnaire d’Amazon, ça n’est un secret pour quiconque, est radicalement anti-Trump également. Et toutes ces sociétés vont aller se positionner non seulement dans des camps politiques mais aussi des projets de société. Transformer la société en algorithmes et l’aborder par la data ce n’est pas neutre, c’est très précisément ce qu’a fait Cambridge Analytica11.
Donc il y a un vrai projet de société derrière, qui est connu de peu de monde, en tout cas qui, pour l’instant, ne suscite pas beaucoup d’inquiétude. Je me souviens de conversations que j’ai eues avec des gens qui me disaient « oui, le transhumanisme, peut-être, un jour, mais pour l’instant c’est un peu une vision » et qui ne réalisaient pas du tout que le transhumanisme c’est ce qu’on a vu à l’œuvre aux États-Unis et qu'on est en plein dedans. La transformation de la société par le transhumanisme a commencé, on est au tout début mais ça a commencé.
Il y a une incompréhension politique de ce que ces acteurs peuvent avoir comme intérêt et surtout la facilité avec laquelle, typiquement, on a privatisé une partie de la justice française relative à la liberté d’expression auprès d’un acteur qui est très clairement positionné pour Trump, pour les fake news et pour, on va dire, ce renouveau du populisme. C’est fascinant comme stupidité politique !
Mon diagnostic c’est qu’il y a vraiment un manque total de compréhension non seulement de la réalité de ce que sont les technologies, mais de la dimension politique qu’elles ont prises et c’est extrêmement dangereux d’avoir comme dirigeants des gens qui sont à ce point ignares.

Bertrand Lenotre : On va terminer tous les quatre, si vous voulez bien, par la solution, les solutions possibles, est-ce qu’il y a un électrochoc possible de la société française, des sociétés non-américaines occidentales on va dire, qui sont en mesure de proposer des solutions technologiques et d’avoir une forme de souveraineté technologique ? Est-ce qu’il y a un électrochoc possible qui pourrait nous amener à créer quelque chose ?
On en a déjà parlé, il y a des opérations qui se font avec de plus en plus de prise de conscience de cette nécessité de la souveraineté, mais qu’est-ce qu’il faudrait pour que le grand public s’en empare, comprenne que là la ligne rouge est franchie et que, vraiment, on est en train d’aller vers un danger qui sera suprême et qui sera bien plus politique et social que technologique à l’arrivée ? Tariq.

Tariq Krim : Je voudrais dire que la première des choses qui est importante, c’est de comprendre qu’une autre vision du numérique est possible. On se rappelle tous les débuts de l’Internet, c’est-à-dire finalement les débuts avant la plateformisation à outrance, le culte de la vanité, l’algorithmisation de tout. C’était une époque agréable à vivre. C’était une époque où on avait l’impression que l’Internet était une forme d’extension de nos vies. Aujourd’hui c’est devenu une prison, quelque chose de suffocant. Donc ça c’est la première des choses.
La deuxième, je dirais qu’il y a un vrai problème de RH [ressources humaines]. Je l’avais déjà dit dans le rapport que j’avais rendu à Fleur Pellerin il y a six ans. On a de très bonnes personnes, de très bons développeurs, on a de très bonnes écoles, mais ces gens ne travaillent pas au niveau où ils devraient être. Aux États-Unis, quand ils sont chez Google, c’est le CTO [Chief technology officer] de Linkedin, c’est le responsable du cloud de Google, c’est l’inventeur ou le co-designer de Kindle. Ou, dans le cas de feu Jean-Marie Hullot qui est un de mes mentors, le développeur originel de l’ìPhone. C’est ce niveau. Quand ils travaillent en France, en fait, on les met dans le huitième sous-sol de Bercy ou on leur demande de sortir de leurs compétences technologiques pour devenir des super chefs de projets, des gens qui essayent plus ou moins de bâtir des éléments de langage.
Au-delà du fait qu’il y a un autre projet numérique qui existe, il y a un problème de RH, et la troisième chose c’est de savoir où on veut aller. Je pense que la question est à la fois française et européenne. On est dans un monde où on n’a plus autant de ressources que l’on souhaite. On s’est rendu compte qu’on atteint un gap au niveau écologique mais également au niveau de la production d’énergie. On va arriver maintenant à un moment où la production arrive à certains pics. Donc la question c’est comment vit-on dans un monde qui est moins matériel ? Eh bien il faut avoir des biens immatériels riches, de qualité, et on peut se poser la question.
Pour moi, le seul compétiteur par exemple de Netflix c’est l’Ina [Institut national de l'audiovisuel]. Si on faisait un service qu’on mettait gratuit avec l’ensemble des données, de tous les films, tout ce qui a été produit par la télévision publique depuis 50 ans, on aurait quelque chose d’absolument incroyable qui pourrait être réutilisé par les professeurs, qui permettrait, en fait, de construire une contre-proposition. Aujourd’hui on essaye de faire, entre guillemets, un « sous-Netflix » en se disant comme on a les droits des séries américaines, pour l’instant on va re-packager les choses — c’est un peu ce qu’a fait Canal+ en disant on fait un truc un peu similaire —, alors que pour moi il faut une vision radicalement différente.

C’est la même chose pour l’Éducation. L’Éducation c’est un terreau incroyable pour développer des nouvelles choses, mettre en avant de nouveaux logiciels, appendre, en fait, à la prochaine génération à utiliser ces outils, à les fabriquer, à comprendre comment un ordinateur marche parce que c’est aussi le problème maintenant, c’est qu’on est un peu dans le mythe du cargo. C’est-à-dire qu’on arrive, on a un téléphone, on ouvre une boîte, il y a un appareil qui s’allume. C’est un demi-dieu qui sait tout de nous et on ne sait même pas comment il fonctionne. Donc il faut vraiment reprendre complètement ce qui n’a pas été fait depuis au minimum deux/trois gouvernements et relancer une politique où la technologie fait partie de notre vie. La seule question qui se pose c’est la question de la balance, on parlait de la ligne rouge, c’est-à-dire où la technologie commence, où elle s’arrête, quelles sont les règles, les clarifier et ne pas, en fait, se donner le sentiment que la technologie est illimitée.
Ce qui est fascinant dans les religions c’est que toutes les religions, d’une certaine manière, apprennent aux gens à gérer l’abondance. Par le jeûne, le ramadan, enfin plein de choses, on append à gérer l’abondance. Et dans ce monde numérique qui est, en fait, une forme de nouvelle religion on nous a intégrés dans cette abondance, dans cette d’infinité et ça ne marche pas, ça rend les gens fous. Le rôle d’un État, mais aussi le rôle de la société, c’est d’apprendre à construire des limites à cela – le terme de limite me gêne un peu – une balance entre ce monde infini et la réalité dans laquelle on vit et apprendre à gérer les deux. Si on ne fait pas ça, on sera effectivement dans un monde où les formules mathématiques où on peut simuler, dans la simulation de la simulation, comme dans Enception et, à la fin, on a l’impression qu’on connaît le monde alors qu’en fait on ne connaît qu’une petite partie du monde. Donc il faut revenir à une balance, un équilibre et, j’allais dire, presque aux textes fondamentaux. Tout ça a été vu et revu par les pionniers de la cybernétique, l’intelligence artificielle dans les années 60, qui étaient des chercheurs et des philosophes. Maintenant on a rétréci notre vue et on est, en fait, dans le discours marketing. Tu parlais de transhumanisme, je ne sais toujours pas ce qu’est le transhumanisme, en tout cas, ça marche bien d’un point de vue marketing.

Fabrice Epelboin : Je pense qu’il y a une piste à explorer parce qu’on est quand même dans un momentum. On est en plein dans une épidémie terrible qui a mis en valeur comme jamais la réalité de ce que c’est que la souveraineté, à tout niveau. Il y a réel problème avec la santé en France, ça n’aura échappé à personne, et, qui plus est, on se retrouve avec ce très mauvais timing de la part de Cédric O qui fait que cette histoire de hub, de data, destiné à être le futur de notre santé publique, on vient de le passer aux Américains. Peut-être qu’il serait temps d’expliquer à la population ce qu’on serait en droit d’attendre d’un tel hub de data.
À partir du moment où on aura toutes les données de santé des Français et qu’on aura ces algorithmes d’intelligence artificielle pour les ausculter, on va être en mesure de commencer à faire de nouvelles formes de santé, à faire de la santé prédictive, à repérer des problèmes qui étaient totalement invisibles jusqu’ici, à mieux les adresser, à faire des politiques de santé beaucoup plus fines, et tout ça va potentiellement nous apporter un confort absolument spectaculaire qui devra bien compenser, effectivement, une décroissance qui s’annonce absolument inévitable.
Aujourd’hui, l’enjeu c’est de savoir si on sera maîtres et souverains de toute cette plus-value de santé qui est promise par ces technologies ou si on l’achètera en abonnement, comme n’importe quel service cloud, aux Américains, quitte à se retrouver dans des situations très compliquées d’un point de vue géopolitique. Les États-Unis évoluent à une vitesse folle et on pourrait tout à fait demain se retrouver dans une situation tout comme les Iraniens où, du jour au lendemain, ils coupent les vivres. Et là, on se retrouverait sans système de santé.
Ce sont des problèmes qui sont critiques et qui sont de très long terme. C’est vraiment un projet de société qu’on a bazardé en douce sans même un appel d’offres. On a, à mon avis, le momentum pour que tout le monde comprenne une problématique qui est pourtant très pointue d’intelligence artificielle et de cloud. C’est vraiment maintenant qu’il faut le faire.

Damien Douani : Pour conclure sur tout ça, pour aller dans le sens, bien sûr, de Tariq et de Fabrice, pour ajouter un élément, je pense qu'il faut rendre tangibles les choses. Je pense que tout ce qu’on se raconte entre nous c’est intellectuellement très intéressant, mais, pour n’importe qui dans la rue, ça lui passe 10 000 au-dessus. Sauf si on explique que du jour au lendemain leur carte vitale ne peut plus fonctionner, sauf si on leur explique par exemple que, pendant la crise du covid, on ne pouvait plus trouver de paracétamol parce que la molécule est fabriquée en Chine et elle n’est plus développée dans les laboratoires en France, ni même en Europe.
Ce genre de choses permet d’expliquer très concrètement la même chose. En expliquant que vous ne pourrez plus trouver de paracétamol parce que la molécule n’est plus exportable, eh bien peut-être que demain on ne pourra plus forcément exploiter vos données parce que les données seront ailleurs et gérées autrement, par un acteur qui n’est pas nous.
Je pense qu’il y a un vrai élément par rapport à ces notions de propriété d’État, si on peut dire ça, sans rentrer dans des logiques qui pourraient faire penser à des idéologies communistes ou autres, ce n’est pas la question. La question c’est quels sont aujourd’hui les enjeux d’État et justement les éléments sur lesquels le pouvoir doit pouvoir préempter son pouvoir régalien, comme à une époque la monnaie. Il y a vraiment ces éléments-là qui sont très clairement des enjeux clefs et qu’il faut rendre vraiment tangibles à la population à qui, à mon avis, il manque cette notion de tangibilité. Pour autant, on est à un moment clef de notre histoire qui fait que c’est plus que jamais maintenant qu’il faut arriver à expliquer ça.

Bertrand Lenotre : Avec la nécessité d’avoir une génération qui soit formée dès le plus jeune âge à ces questions-là. C’est un vrai problème crucial et c’est un problème quasi insoluble en matière de temps. C’est-à-dire qu’il faut réagir tout de suite parce que c’est urgent et, en même temps, former toute une population, toute une génération nouvelle à comprendre ces enjeux-là. On va avoir du boulot et du pain sur la planche pour faire tout ça. Il va falloir encore quelques podcasts, j’ai l’impression.
Merci à vous trois d’être venus en parler aujourd’hui, c’était passionnant, il y avait plein de choses intéressantes. Vous pouvez réagir dans les commentaires, je m’adresse à ceux qui nous écoutent, vous avez plein d’endroits où ça se passe, plein de plateformes différentes. On est aussi dans le royaume de la plateformisation et vous pourrez nous interroger là-dessus plus tard.
Merci Tariq. Merci Fabrice. Merci Damien. À +.

Tariq Krim : Merci.

Damien Douani : Ciao.

Fabrice Epelboin : Merci à tous.

Revue de presse de l'April pour la semaine 30 de l'année 2020

lun, 07/27/2020 - 21:57

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[La Tribune] Le cluster Naos passe le logiciel libre à l'échelle de la Nouvelle-Aquitaine

Le mercredi 22 juillet 2020.

Ne dites plus Aquinetic mais Naos, pour Nouvelle-Aquitaine open source. Ce cluster régional dédié au logiciel libre vient de changer de nom et d'échelle pour regrouper désormais 120 PME régionales. La souveraineté numérique et la formation des entreprises sont au cœur de ses priorités comme l’explique à La Tribune, son co-président François Pellegrini.

[Politis.fr] Numérique: Une portée de Chatons contre les gros Gafam (¤)

✍ Romain Haillard, le mercredi 22 juillet 2020.

Le confinement a fait apparaître avec clarté notre dépendance aux géants du numérique. Mais des services associatifs et locaux offrent une alternative.

[Le Figaro.fr] Linux, Bitcoin... Des codes open source stockés dans l'Arctique pour le futur

✍ Ingrid Vergara, le mardi 21 juillet 2020.

À la manière d’une Bibliothèque d’Alexandrie version digitale, la plateforme de développement GitHub a déposé des codes de logiciels open source emblématiques dans un coffre-fort sous le permafrost de la région norvégienne du Svalbard.

Et aussi: [The Conversation] Réconcilier l'Économie sociale et solidaire avec la tech, l'autre enjeu de la transition numérique

✍ Arthur Gautier, le mardi 21 juillet 2020.

Des questions de financement, de formation ou encore de valeurs expliquent le fossé entre deux mondes qui auraient pourtant tout intérêt à travailler ensemble.

[Next INpact] Application StopCovid: La CNIL exige la correction de plusieurs irrégularités (¤)

✍ Marc Rees, le lundi 20 juillet 2020.

Comme promis, la Commission chargée de veiller au respect des données personnelles a mis son nez dans StopCovid. Ses conclusions? L’application de suivi de contact souffre de plusieurs problèmes au regard du RGPD. «Le ministère de la Santé est mis en demeure d’y remédier» expose l’autorité.

Et aussi:

Souveraineté numérique, la douche froide - Tariq Krim et Bernard Benhamou - Thinkerview

lun, 07/27/2020 - 14:22


Titre : Souveraineté numérique, la douche froide ?
Intervenants : Tariq Krim - Bernard Benhamou - Sky
Lieu : Thinkerview
Date : 17 juillet 2020
Durée : 2 h 20 min 21
Visualiser la vidéo ici ou ici
Licence de la transcription : Verbatim
Illustration : captures d'écran de la vidéo - Licence Creative Commons Attribution Pas d’Utilisation Commerciale Partage dans les Mêmes Conditions 4.0 International,licence de toutes les interviews de Thinkerview.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Sky : Messieurs, bonsoir.

Tariq Krim : Bonsoir.

Bernard Benhamou : Bonsoir.

Sky : Nous vous recevons pour une chaîne internet qui s’appelle Thinkerview. Nous sommes en direct. Est-ce que vous pouvez vous présenter succinctement, on va commencer par Tariq.

Tariq Krim : Tariq Krim. Je suis entrepreneur dans le Web. J’ai eu plusieurs carrières. J’ai démarré très tôt en informatique, c’était ma passion. Je suis parti dans la Silicon Valley et je suis revenu en France où j’ai monté plusieurs boîtes. En ce moment, je m’intéresse essentiellement aux questions de souveraineté numérique.

Sky : Bernard.

Bernard Benhamou : Bernard Benhamou. Je dirige actuellement l’Institut de la souveraineté numérique1. Après avoir été à de nombreuses reprises du côté obscur de la force dans différentes fonctions auprès des gouvernements successifs et toujours autour des questions numériques, d’usage du numérique, j’étais délégué interministériel [aux usages de l’Internet, Note de l'intervenant], autour des questions de régulation du numérique depuis, en gros, une vingtaine d’années. J’ai eu l’occasion de rencontrer Tariq à plusieurs reprises sur ces questions.

Sky : Merci. On a décidé de vous faire venir ce soir pour parler de souveraineté numérique, pour parler de privacy shield, pour parler de tout un tas de choses qui ont trait à notre souveraineté numérique et d’autres sujets connexes. On va commencer par Tariq.
Tariq, comment ça se passe en France la souveraineté numérique ? C’est open bar pour les sociétés américaines, pour les sociétés jordaniennes, israéliennes, pour les sociétés saoudiennes ? C’est comment ? Est-ce qu’on a, pour être tout à fait trivial, le pantalon en dessous des genoux ?

Tariq Krim : Vaste question. Je pense qu’on a un vrai problème en France c’est qu’on a l’impression qu’on n’est pas capable de faire des choses, qu’on n’est pas capable de construire ces infrastructures. Ce qui est fascinant c’est que depuis 40 ans en fait, je dirais plus, même 50 ans, je revoyais récemment un document YouTube sur le plan Calcul2 où Michel Debré parlait de la souveraineté numérique, je ne changerais pas une seule ligne.

[Problème technique]

Sky : On revient sur la souveraineté numérique et le fait qu’on essaie de courir avec le pantalon en dessous des genoux.

Tariq Krim : Ça n’a pas toujours été le cas. Ce qu’il faut comprendre c’est qu’après la Deuxième Guerre mondiale, en gros, les Américains ne veulent pas que l’Europe dispose d’une industrie informatique pour une simple raison c’est que qui dit ordinateur dit arme nucléaire, donc dissuasion. À ce moment-là on a vraiment un alignement parfait entre la vision, notamment celle du général De Gaulle, la création de la CII (Compagnie internationale pour l'informatique), de toute une infrastructure. Ce qui est d’ailleurs assez fascinant, c’est qu’à l’époque ils n’ont pas décidé de créer une boîte, mais de regrouper un ensemble de boîtes autour d’un projet, donc construire des calculateurs. À l’époque Control Data faisait des calculateurs un peu puissants, on n’avait pas vraiment accès à ce genre de machine. On a eu cette vision qui est assez française, c’est de dire on fait nos trucs, dans notre coin – on a fait ça avec le TGV, on a fait ça avec le Minitel –, on construit nos réseaux, nos infrastructures. Et ce qui est fascinant, dans une ancienne vie j’ai passé beaucoup de temps à bidouiller des Minitels, quand on ouvre un Minitel la première chose qui est impressionnante c’est que tout est fabriqué en France, absolument tout. Les gens ne le savent pas, mais le Minitel a inspiré Steve Jobs pour le Macintosh, la poignée, le design, donc on est parti d’un modèle où on faisait tout à un modèle où on ne fait presque plus grand-chose maintenant. On veut faire le Health Data Hub3, on est obligé de passer par Microsoft ; on veut faire telle chose, des appels d’offres, on nous explique qu’on ne sait plus faire. Il y a plusieurs raisons, la première, l’expertise est là, mais les gens qui ont l’expertise ne sont jamais les gens qui décident. Ce n’était pas le cas avant on avait beaucoup d’ingénieurs, de polytechniciens, des gens un peu stricts, mais qui étaient des vrais ingénieurs, qui savaient construire, mettre en place des équipes. Maintenant on a plutôt des consultants, c'est-à-dire des gens qui font des powerpoints.

Sky : Technocrates !

Tariq Krim : Mais il y a eu des technocrates éclairés. Là on est vraiment dans le modèle où on a vu une présentation de Google, c’est super – et c’est vrai que c’est très beau – c’est ça qu’il faut faire. Alors qu’en fait, quand on construit des projets sur le long terme, par exemple le Health Data Hub, mais tout ce qu’on va faire, tout ce qui est nouveau dans le numérique, on ne le fait pas pour cinq ans, on le fait pour 20 ans, 30 ans. Quand on a fait le TGV on n’a pas dit c’est un produit qu’on va faire pour quelques années ; il y a une vision long terme, il faut donc la construire et la construire c’est difficile. Il y a deux visions : il y a la vision Uber, on clique, la voiture arrive en bas et on rentre dans la voiture et puis il y a la vision où on passe son permis de conduire, on achète sa voiture, on apprend à la conduire, c’est plus compliqué, c’est plus cher, mais c’est ce qu’on doit faire.

Sky : Bernard, ce n’est pas un peu trop tard de passer son permis de conduire, de prendre sa voiture, d’apprendre à mettre la transition dans un climat de guerre économique où tout s’accélère ?

Bernard Benhamou : On pourrait penser et je pense que ce qui est, d’une certaine manière, le constat que font beaucoup aujourd’hui c’est que, justement, une fois que la guerre est perdue autant faire alliance avec les vainqueurs. C’est une triste résignation, une molle résignation de certains, y compris au sein de l’État. Donc non, je crois que non seulement il n’est pas trop tard, mais je dirais que l’actualité des technologies, c’est-à-dire l’actualité des GAFAM pour les appeler comme ça, c’est-à-dire les grandes sociétés américaines du secteur, montre qu’on est quasiment entrés dans une crise – certains disent crise systémique, peu importe le terme – une crise de confiance à l’échelle mondiale. C’est-à-dire que maintenant Facebook est en trajectoire de collision avec un nombre infini d’acteurs aussi bien publics que privés et c’est aussi, quelque part, le cas de Google avec YouTube qui lui aussi est un accélérateur de radicalisation. Donc par définition je crois que ce modèle-là n’est pas durable, on est convaincus de ça. Mieux encore, j’entendais le mot privacy shield qui était prononcé en tout début d’émission ; c’est un plaisir de venir le lendemain de l’annulation4 d’un traité transatlantique qui était, je dirais, l’ombrelle pour 1500 ou 2000 sociétés américaines pour essayer effectivement de traiter des données des Européens aux États-Unis.
Je fais partie de ceux qui pensent qu’à terme, Tariq citait le Heatlth Data Hub, le nouveau système de rassemblement des données de santé des Français en un seul lieu à des fins de développer des systèmes d’intelligence artificielle, je pense que ces données ne peuvent pas, quoi qu’il en soit, sortir du territoire européen, peut-être pas du territoire français mais au moins européen.
À l’heure qu’il est, le fait que Microsoft puisse traiter une partie de ces données directement aux États-Unis pose un problème. On vient de voir, avec l’annulation du privacy shield, que la justice européenne considère que les données des Européens ne sont plus sécurisées correctement par rapport aux intrusions des systèmes des services de renseignement, par rapport effectivement à l’usage que peuvent en faire des sociétés. Maintenant il y a une sorte de tenaille qui est en train de s‘établir. Ce qui était quasiment inenvisageable il y a cinq ans quand justement le prédécesseur du privacy shield qui s’appelait à l’époque, pour les plus férus, le safe harbor a été annulé, personne ne pensait que le suivant serait annulé. Maintenant tout le monde est conscient que c’était quasiment inéluctable et surtout, on se rend compte à quel point on ne peut plus reproduire la chose, faire comme si de rien n’était et continuer effectivement comme si, j’allais dire, il n’y avait pas eu de scandale Snowden5, il n’y avait pas eu d’affaire Cambridge Analytica6, il n’y avait pas eu toute une série d’évènements qui font que les Européens doivent sortir de l’innocence, je dirais de la naïveté par rapport aux Américains qui faisait dire aux Européens« mieux vaut effectivement leur confier nos données, de toute manière ce sont de belles et grandes sociétés ». Non ! Aujourd’hui on se rend compte que Facebook non seulement est un acteur économiquement toxique pour son écosystème – on pourrait dire la même chose de Google –, mais que ce sont des acteurs politiquement toxiques et qui l’ont montré à plusieurs reprises. Je citerais des gens qui ne sont pas des anarcho-libertaires extrêmes, je citerais le rapport du Parlement britannique qui parle de Facebook en disant « ce sont des gangsters numériques qui subvertissent la démocratie ».
Ce propos-là intervient neuf ans après qu’une certaine Hillary Clinton dise par la voix de son conseiller, Alec Ross à l’époque, que le numérique, l’Internet, est devenu le « Che Guevara du 21e siècle » – c’était l’époque des Printemps arabes – en pensant que c’était l’outil de libération des peuples.
Aujourd’hui, on se rend compte que l’Internet peut être tout, y compris un outil d’asservissement, y compris un outil de contrôle. Nos amis chinois le montrent tous les jours [via la notation des actions de chaque individu, Note de l'intervenant] avec le crédit social, ce système orwellien de contrôle. Donc nous, Européens, qui étions entre guillemets « les mauvais élèves » du monde numérique dans le sens où nous n’avions pas notre industrie propre, avec notre Réglement européen sur les données7, avec cette volonté que l’on a justement de protéger une notion presque dépassée, surannée, qu’on appelle la vie privée, eh bien quelque part nous avions raison… [beaucoup de pays le reconnaissent aujourd’hui, Note de l'intervenant].
Donc je pense que le rebond européen pourrait prendre appui sur, en gros, notre singularité par rapport aux acteurs chinois évidemment et effectivement aussi aux acteurs américains.

Sky : Tariq, ça pose quels types de problème plus en détail le fait que nos data soient stockées aux États-Unis ou soient envoyées aux États-Unis ou peuvent être exploitées depuis les États-Unis depuis une loi extra-européenne ? Par exemple si les services secrets tombent sur nos data qu’est-ce qu’ils peuvent faire ?

Tariq Krim : Déjà, je dirais que ce qu’il faut déjà comprendre c’est que l’Internet depuis au moins 2002, c’est à peu près la date qu’on se donne de temps en temps, est un espace militarisé. C’est-à-dire qu’on prend un ordinateur, on le sort d’une boîte, on le connecte. À l’époque je crois qu’il fallait deux minutes pour qu’il soit transformé en zombie, maintenant je pense que ça ne prendrait même pas 30 secondes, peut-être même moins. Ça veut dire que le fait que l’ordinateur soit connecté, il y a des bots, des services, qui cherchent en permanence des machines à hacker automatiquement puisque comme elles ne sont pas mises à jour, elles sortent de la boite, les patchs de sécurité n’ont pas été mis, et on va les utiliser ensuite pour plein d’actions coordonnées.
En fait, l’espace d’Internet est à la fois un théâtre militaire, mais également un espace commercial qu’il faut sécuriser, donc ça pose un vrai problème parce que, finalement, ce sont les mêmes tuyaux qu’Amazon utilise pour nous vendre des chaussures et que la NSA, la CIA, USCYBERCOM (United States Cyber Command) et évidemment les services de tous les autres pays utilisent ; c'est exactement le même réseau. Donc on a ce problème c’est qu’on n’a pas su, à un moment donné, définir d’un point de vue politique, et ça Bernard l’a suivi, des règles d’usage. En gros, dans les guerres de type cyber à la différence du nucléaire où c’est le premier qui a tiré qui a perdu, dans les guerres cyber c’est l’inverse, c’est le premier qui a tiré qui a gagné. Je sais que dans les vieux magazines Wired qui est magazine californien que tout le monde connaît, il y a un auteur de science-fiction, un peu l'un des parrains du mouvement cyberpunk, qui expliquait quels sont les dix services – c’était en 1993 – qu’il faudrait faire tomber pour faire tomber les États-Unis. À l’époque l’Internet était numéro 4 parce qu’il y avait encore des grids [réseaux] privés. Aujourd’hui, évidemment, ce serait la première chose. On l’a vu hier sur Twitter. Finalement on peut hacker le compte Twitter de quelqu’un de très connu. Le plus connu d’entre eux, si c’était Donald Trump, on pourrait presque déclarer une guerre nucléaire.
Le problème qu’on a, pour revenir sur la question des services de renseignement, c’est que de toute façon l’écoute existe depuis toujours. Ce qui se fait aujourd’hui avec Google, avec les GAFAM, ce que Snowden a dévoilé, existait déjà avant, dans les années 50/60 avec d’autres projets, le projet Minaret, ce qui a donné ensuite Echelon et ensuite on a eu plein de sujets. Ce qui est nouveau aujourd’hui, c’est que ces centres de données analysent non plus les données personnelles : on oublie que des sociétés, Facebook, Google, ne travaillent plus uniquement sur les données, mais sur le comportement. En gros, il y a dix ans, « je veux savoir qui tu es pour te vendre quelque chose ». Aujourd’hui, je vais utiliser ton comportement – le nombre de fois que tu vas sur Instagram, si tu t’arrêtes quelques millisecondes sur une photo, ah tiens tu as envie de voyager ?, est-ce que tu es déprimé ?, est-ce que tu es euphorique ? – pour transformer ton comportement.
Ce qui s’est passé, c’est que la plupart des acteurs de la Valley se sont rencontrés. Nathan Myhrvold qui était le chief scientist de Microsoft, a présenté – je crois que c’est Daniel Kahneman qui avait fait la Thinking Fast and Slow – le marketing comportemental. En fait, il y avait des gens de Google, il y avait des gens d’Amazon, il y avait des gens de Facebook, la personne de Facebook qui a parfaitement compris comment utiliser ces techniques c’est Sean Parker qui était à l’époque le président de Facebook.
Ce qu’il faut savoir c’est que Facebook n’était pas très intéressé à ça jusqu’à ce que Sheryl Sandberg vienne de Google avec la vision du capitalisme de surveillance, c’est-à-dire monétiser les données à outrance, et avec cette idée qu’on peut modifier les comportements pour vendre.
Le problème que l’on a aujourd’hui c’est que quand on modifie le comportement d’un consommateur, c’est-à-dire qu’on veut le rendre dépressif parce que quand il est dépressif il va plutôt acheter des voyages, quand il est euphorique il va s’acheter des chaussures – je schématise –, mais on touche à la psyché des gens. D’une certaine manière ce qui est fascinant c’est que quand on rêve le soir, en fait notre subconscient est alimenté par toutes les images qu’on a vues dans la rue, à la télévision. Aujourd’hui une grande partie, voire la majorité des images qui sont en fait perçues par notre cerveau viennent des écrans. Ce sont des images qui ont été choisies. Ce que l’on voit sur Instagram a été choisi. Si on veut vous déprimer, on va vous montrer la photo de votre ancienne petite amie au lever et immédiatement on va changer votre caractère. Vous allez dire non ! Mais ça marche, ça marche très bien. J’avais rencontré un garçon chez Facebook [qui faisait ce genre d’experience, Note de l'intervenant], ils avaient fait des tests, ils ont arrêté, depuis lui a d’ailleurs quitté Facebook, il déprimait, il disait : « On est capable de modifier les comportements. On modifie les comportements pour le commerce, mais quand on modifie le comportement pour le commerce on modifie aussi la partie citoyenne d’une personne ».

Sky : Pour les élections.

Tariq Krim : Pour les élections.
Ce qui est fascinant c’est qu’on est aujourd’hui dans un monde qui est compliqué parce qu’on a un hyper-fragmentation algorithmique. Avant on avait la télévision, on avait 15/20 niches. Maintenant on est rentré dans des micro-niches qui targettent parfois quelques personnes. Il y a un groupe terroriste un peu d’extrême droite, je dis terroriste parce qu’ils ont tué des gens en Californie, qui s’appelle Boogaloo, je crois que tous les membres se sont rencontrés grâce à Facebook.
Donc on a construit une espèce de fragmentation algorithmique permanente, on crée des micro-niches. Ce que je pense c’est que les micro-niches créent de la médiocrité, parce qu’on est un peu le borgne au milieu d’un micro-monde d’aveugles et, en fait, on ne communique plus. Effectivement ça a construit, avec YouTube mais aussi avec Facebook, ce que j’appelle souvent la radicalisation algorithmique, c’est-à-dire qu’on travaille mentalement une personne et ces techniques qui sont des techniques de comportement, de modification comportementale, sont des techniques qui ont été inventées dans les années 60 par la CIA, par tous les services de renseignement pour modifier la psyché. Elles ont été boostées par le fait que désormais, avec le téléphone, on est seul. On va aller voter, on doit voter pour Hillary, et puis on va aux toilettes, on prend son téléphone et là on voit un truc, une fake news sur Hillary, on est énervé, on est vraiment énervé, c’est le bon moment et puis on change son vote à la dernière minute.
Ce qui a changé entre l’élection de Trump et l’élection d’Obama c’est que l’élection d’Obama c’est une élection internet alors que l’élection de Trump c’est devenu une élection sur le smartphone et le smartphone, en fait, est un appareil unique. Personne ne regarde votre téléphone, personne ne regarde ton téléphone Bernard, c’est quelque chose de privé. Donc on a cette capacité et elle a été utilisée. Les services de renseignement, à mon avis, n’osent pas faire ce genre de chose. Ils le font peut-être. Je pense honnêtement aujourd’hui que Facebook, Google et toutes ces plateformes ont moins de scrupules à utiliser ces techniques, parce que c’est du commerce, que les services de renseignement.

Sky : Il y a une porosité entre les services de renseignement et les GAFA ? Bernard.

Bernard Benhamou : C’est possible, bien sûr que si. S’il y a bien une chose que l’affaire Cambridge Analytica a bien démontrée, cette énorme affaire effectivement durant la préparation de l’élection américaine, pour ceux qui n’en auraient pas entendu parler, c’est que d’une part les données peuvent être traitées par des psychologues, spécialistes d’opérations psychologiques.

Sky : PSYOP.

Bernard Benhamou : PSYOP. On voit bien qu’il y avait plusieurs convergences, je dirais. Ce que décrit très bien Shoshana Zuboff dans son livre sur le capitalisme de surveillance, d’ailleurs je le conseille à tous vos auditeurs et spectateurs, même si, malheureusement, il n’est pas encore traduit en français, il est traduit en allemand. J’espère qu’il y aura un éditeur très bientôt, je crois que c’est le cas [il devrait être traduit à l'automne, Note de l'intervenant]. On voit bien qu’il y a une convergence entre l’activité économique qui se nourrit de la data et les activités des services de renseignement qui, c’est une tendance de ces dernières décennies, a de plus en plus été vers l'analyse de signaux technologiques plutôt que celle des signaux humains [SIGINT], donc utilise de plus en plus la data.
Comme le rappelait justement Tariq, on n’en est plus au stade d’analyser le comportement, on en est au stade de le manipuler. Pour ceux qui sont en mesure d’agir – Tariq faisait référence au fait de pouvoir changer l’état d’esprit, l’humeur d’une personne – on sait très bien que pour aller vers un vote extrême on aura plus intérêt à faire que la personne soit en colère. Une personne qui est sereine, qui est zen, à priori aura moins tendance à aller vers un vote extrême, en tout cas c’est comme ça que la chose a été analysée.
Donc oui, typiquement on sait maintenant que modifier le newsfeed sur Facebook permet de modifier l’état d’humeur des gens. On sait qu’en leur montrant, ce qu’a très bien démontré une autre spécialiste, Zeynep Tufekci, une turco-américaine, remarquable sociologue sur la radicalisation via les vidéos justement, en particulier sur YouTube, on sait effectivement que si on montre des choses de plus en plus hard, ce qu’elle dit très bien, elle dit que rien n’est jamais trop hard pour YouTube, voila ce qu’elle dit, et elle concluait un de ses articles en disant « YouTube est peut-être devenu le principal outil de radicalisation du XXe siècle », parce que justement la puissance du choix algorithmique en fonction des personnes, en allant vers des vidéos de plus en plus hard, en montrant des messages de plus en plus radicaux ! Tout à l’heure Tariq évoquait les micro-niches, c’est-à-dire les bulles informationnelles comme on les appelle. La particularité aujourd’hui c’est qu’on fait en sorte que des gens ne rentrent jamais en contact avec des idées qui les dérangent, pas simplement des idées différentes, non, des idées qui remettent en cause leur schéma de vie. Donc on crée des groupes qui ne se parlent jamais entre eux.

Sky : C’est qui « on » ?

Bernard Benhamou : Ceux qui ont intérêt à le faire, c’est-à-dire ceux qui tant d’un point de vue économique que d’un point de vue politique ont envie de faire en sorte qu’une partie de la population devienne captive par rapport à un certain type de comportement.

Sky : Ou d’idéologie.

Bernard Benhamou : Ou d’idéologie. Sachant que la consommation, ça a très bien été étudié par des publicitaires depuis plusieurs dizaines d’années [les actes de consommation peuvent révéler les convictions d'une personne, Note de l'intervenant], y compris nos actes de consommation quotidiens, anodins : la soupe Campbell qu’on voyait dans le tableau de Warhol était apparemment plutôt une soupe consommée par les Républicains, ne me demandez pas pourquoi, je n’en sais strictement rien. De même pour les voitures, je crois que certaines marques « étaient plus », entre guillemets, progressistes, démocrates, d’autres étaient plus républicaines, Chevrolet versus Ford, je crois.
On sait que l’on est capable d’agir sur le comportement des gens en fonction de toutes sortes d’informations qui nous proviennent [de leurs activités en ligne, Note de l'intervenant]. Et après, évidemment, ceux [personnes ou groupes] qui y ont intérêt pour des raisons politiques, que ce soit des puissances étrangères, que ce soit des partis politiques parfois même en collusion l’un avec l’autre puisque c’était un peu de ça dont il était question, sur la Russie en particulier ; l’affaire Stone qui vient juste de rebondir récemment était liée à des contacts répétés avec des officiels russes, des officiers du renseignement russe. On voit bien qu’aujourd’hui on a les instruments avec des moyens limités, avec des groupes de personnes limités, la célèbre agence russe, Internet Research Agency, ce sont des moyens qui ne sont pas énormes mais qui permettent d’influencer, comme on l’a vu pour Cambridge Analytica.

Sky : Agence russe privée. C’est un privé qui a des porosités avec le gouvernement. Il semblerait.

Bernard Benhamou : Oui. Il semblerait, je ne suis pas un russologue aussi distingué que certains de vos invités [Bernard Benhamou indique Tariq Krim, NdT], mais on pense effectivement qu’il y a eu une interaction de l’un par rapport à l’autre.

Sky : Ils ont laissé faire.

Bernard Benhamou : Oui. Et ce qui est amusant c’est de voir le processus. C’est-à-dire ce n’était pas « votez Trump », c’était « vous ne serez pas bien représentés par Hillary Clinton, à quoi bon aller voter ». Donc l'objectif était d'éteindre le vote démocrate, en particulier pour les Afro-Américains.
On maîtrise de mieux en mieux ces phénomènes-là et ce qui le plus inquiétant, pour revenir aux questions de souveraineté numérique, c’est que pour l’instant les États ne sont pas en mesure de faire valoir la défense de certains principes, y compris vis-à-vis de sociétés comme Facebook.

Sky : Tariq, on fait comment pour éviter l’astroturfing de nos élections ? Est-ce qu’on fait du brouhaha médiatique comme les dix dernières années, du moins les cinq dernières années, avec un gouvernement qui, excusez-moi d’être très trivial, fait sa pleureuse en disant « oh ! là, là, les Russes ils font des bêtises, ce n’est pas bien, ce n’est pas bien les Russes, ce sont des méchants les Russes ! », ou est-ce qu’on muscle un peu le cerveau de nos concitoyens ? Est-ce qu’on se donne des outils pour les repérer plus facilement ? Qu’est-ce qu’on fait ?

Tariq Krim : Il y a plusieurs sujets.

Sky : Comment on fait pour réinvestir la dialectique ? Comment on fait pour éviter que la population soit laissée aux quatre vents de toutes les propagandes ?

Tariq Krim : Il y a un vrai sujet là-dessus. Déjà on a très rarement appris la rhétorique. Aujourd’hui celui qui parle le mieux, on l’a vu avec les débats – qu’elles que soient les opinions des uns et des autres, hydroxychloroquine, etc. – on a vu avec le covid, on est sur un sujet scientifique et médical, la plupart des gens qui aimeraient en parler, qui aimeraient être présents sur les plateaux de télé, se disent je n’y comprends rien et on a même vu en parler des journalistes qui ne savaient même pas ce qu’est une courbe exponentielle, donc on était vraiment à un niveau zéro en science. La rhétorique est importante. C’est là où c’est très intéressant. Quand on voit par exemple les dissents de la Cour suprême, vous avez des gens qui défendent des points de vue opposés à leur vue mais de manière tellement brillante que vous êtes prêt à dire « il a raison » et de dire l’inverse. Donc il faudrait qu’on apprenne un peu !

Sky : Un concours d’éloquence.

Tariq Krim : Un concours d’éloquence. Voilà. Ça c’est la première chose.
La deuxième c’est qu’on a un cancer. Si vous voulez, on est passé de ce qu’on a appelé dans les années 90, les online communities, des milliers de personnes, on a connu les débuts, le WELL8 [Whole Earth 'Lectronic Link], toutes ces communautés, aux médias sociaux, des blogs, des millions d’utilisateurs à des plateformes, on a désormais des milliards d’utilisateurs. Ce dont on ne parle pas, ce dont tu parlais tout à l’heure Bernard, avec YouTube, c’est qu’aujourd’hui on est dans un monde de fast-food. Pour moi Facebook, Google, c’est le Mac Donald de la pensée. Ce qui est fascinant avec Mac Donald c’est que la recette du Big Mac c‘est la même recette quasiment dans tous les pays. Par contre, en France on prend de la viande française, de la salade française, des pommes de terre françaises. Donc on a construit un algorithme qui est finalement le même – je n’aime pas dire un algorithme, parce que je déteste les gens qui parlent des algorithmes – on a créé un ensemble d’éléments de programme qui nous permettent d’identifier, d’analyser une personne, ce sont les mêmes, simplement le substrat, donc les matières sur lesquelles on va construire un profil sont différentes. On est tous énervés pour les mêmes raisons, on est tous euphoriques pour les mêmes raisons. On a créé, en fait, un système de massification de la personnalisation, on n’a pas de système personnel.
La deuxième chose, c’est que le cancer de nos dernières années, ce qu’on appelle le behavioral microtargeting, le micro-ciblage comportemental, on vous cible en fonction de vos comportements, de vos habitudes, de ce qu’on a compris de vous, pas parce que vous vous intéressez à des céréales ou à acheter une Toyota. Le drame pour moi, la chose qui m’énerve le plus dans ces 20 dernières années, malheureusement ou heureusement je connais un peu les gens qui fabriquent ces choses chez Google, chez Facebook, les plus grands génies en mathématiques ont soit servi à détruire le système financier avec les marchés dérivés et les subprimes et aujourd’hui, la génération d’après qui normalement devrait réfléchir à d’autres sujets, en fait passe ses journées à optimiser des algorithmes pour vendre mieux des Toyota sur Facebook.
On a, en fait, un savoir-faire incroyable qui a été mis dans quelque chose qu’on pensait inviolable. Ce qui est assez incroyable dans l’histoire de Facebook c’est que un, ils l’ont su assez tôt. Alex Stamos qui était l’ancien patron de la sécurité a dit très rapidement « on a un problème », on a étouffé l’affaire. Mais surtout, ce qui s’est passé, c’est qu’ils se sont fait avoir. C’est-à-dire que d’un certain côté vous avez Facebook qui dit à son annonceur « on est capable de savoir exactement qui peut faire quoi, comment, combien de gens ont vu le clic » et dès qu’on parle des problématiques liées à la campagne « ah non, je crois qu’on n’a pas vraiment toutes des données ». Ils se sont fait avoir par des gens qui étaient bien plus malins qu’eux. Et surtout, on oublie de le dire, ce qui est génial dans la campagne de Trump, c’est que la campagne d’Hillary avait ses spécialistes en big data, etc., ils avaient fait leur sauce. L’équipe de Trump qui n’avait pas autant d’argent, d’ailleurs Brad Parscale vient apparemment, si j’ai bien compris, d’être viré par Trump, a dit aux gens de Facebook qui avaient ce qu’ils appelaient le projet Alamo – il y avait Cambridge Analytica et il y avait plein de gens, mais il y avait des gens de Facebook qui étaient « prêtés » entre guillemets par Facebook – comment on peut faire pour micro-targeter ? Donc ils l’ont fait de manière extrêmement efficace. Comme le disait Bernard, on a surtout travaillé à faire de la suppression de vote.
Cette technique, à mon avis, devrait être interdite en Europe, complètement interdite. On a les bénéfices, c’est-à-dire vendre plus de Toyota ou vendre des céréales.

Sky : Des Renault ou des Scénic.

Tariq Krim : Des Scénic et des Renault ou d’autres produits. C’est vrai que j’utilise toujours… Vendre des produits de consommation ne mérite pas de menacer la démocratie.
Je n’ai jamais de problème : les gens pensent ce qu’ils veulent ! Mais là, on sent que les gens sont manipulés par des méthodes grossières.

Sky : Pourquoi ?

Tariq Krim : Je m’explique. L’algorithme de YouTube, ce n’est pas moi qui le dit c’est Yann Le Cun qui est notre grande pointure en IA et qui a un peu vendu, il faut le dire, son âme à Facebook. Il le dit, il dit quand vous arrivez par exemple pour la première fois sur YouTube, il faut qu’au bout de cinq vidéos on soit capable de vous proposer une sixième vidéo que vous ayez envie de voir. En fait on fait un travail assez grossier et ce travail assez grossier c’est cette base, ce substrat sur lequel on va travailler ensuite. Fondamentalement on n’a jamais travaillé sur un approfondissement. Tous les algorithmes de ciblage, de micro-ciblage sont assez grossiers, c’est « on doit faire de l’argent très vite » et ça pose un problème parce qu’il n’y a aucune régulation. C’est difficile de réguler ce que vous ne voyez pas. Il y a des publicités en Angleterre sur le Brexit que le régulateur n’a jamais vues, il ne sait même pas qu’elles existent, elles ont été vues trois mois après le vote. Donc on a vrai sujet. Je sais que ça ne plaît pas beaucoup aux gens de la tech quand je dis ça, mais il faut supprimer, arrêter le microtargeting, c’est-à-dire qu’il faut revenir à la publicité classique où on fait du ciblage plus classique, un peu plus grossier, mais qui n’est pas après utilisé comme un outil.

Sky : Bernard je te redonne la parole tout de suite. Je repose une question à Tariq : est-ce qu’on peut intoxiquer, à l’échelle du particulier, l’algorithme ?

Tariq Krim : Par intoxiquer ? Juste pour bien être sûr d’avoir compris la question.

Sky : Je sais que tu es très fan des vidéos de Youtubeuses beauté, si tu regardes tes cinq premières vidéos de Youtubeuses beauté, est-ce que l’algo de YouTube – je sais que tu n’aimes pas dire l’algo – va penser que tu es fan de Youtubeuses beauté ? Est-ce que tu as compris le principe ?
Je te le fais en plus simple. Tu vas sur YouPorn, tu ne regardes que des vidéos où il y a des blacks, on ne va te proposer que des vidéos avec des blacks. Est-ce qu’il y a moyen de l’intoxiquer ?

Bernard Benhamou : De modifier le fonctionnement de l’algorithme de façon fausse, de manière à l’induire en erreur.

Sky : Exactement Bernard.

Tariq Krim : En fait il y a deux forces en ce moment, il y a deux types d’algorithmes chez Facebook. Il y a les algorithmes qui veulent intoxiquer les gens, donc qui veulent montrer tous les contenus y compris ceux qui rapportent le plus d’argent, puisque finalement c’est très neutre, c’est la bottom-line, c’est triste à dire, mais Facebook est passé d’une boîte qui était très technologique à une boîte qui est vraiment focalisée sur la monétisation. Et à côté de ça, il y a les algorithmes dits de monitoring parce que comme ils se sont fait taper sur les doigts avec Rohingyas, avec la campagne, donc ils ont créé des outils pour faire un peu la police. Donc on a ces deux algorithmes qui se battent en duel. Évidemment celui qui est là pour rapporter de l’argent marche le plus.
Est-ce qu’une personne seule peut modifier l’algorithme qui lui est imposé ? Je ne crois pas. Je ne sais pas si vous vous rappelez, à l’époque d’Echelon il y avait eu une histoire – Echelon, le système de la NSA basé sur des mots clefs – quelqu’un avait récupéré une liste de mots clefs, avait dit « on va mettre nos mots clefs dans tous les e-mails et on va saturer le réseau Echelon ». La réalité c’est qu’en fait les gens utilisaient un seul mot clef donc dès qu’il y avait un ensemble de mots clefs, évidemment le mail était ignoré, donc ça ne servait à rien.
Ce qui est très intéressant dans ces plateformes c’est que les algorithmes changent énormément avec toujours la même question : comment l’engagement est le plus fort. Si quelque chose ne marche plus c’est comme un vieux disque, on change le disque, on passe à autre chose. Et souvent, comme le disait Bernard, on va vers des choses qui sont de plus en plus ennuyeuses parce qu‘on pousse vraiment les gens aux limites de leur psyché.

Sky : Gavage.

Tariq Krim : Absolument.

Sky : Bernard.

Bernard Benhamou : Je pense que le problème c’est que là où auparavant on réfléchissait en termes de navigation sur Internet, c’est-à-dire, en gros, est-ce que justement on peut modifier son surf de manière à induire, entre guillemets, « en erreur » l’algorithme. Le problème c’est qu’aujourd’hui les données que peuvent rassembler les data brokers, ces gigantesques agrégateurs de données, viennent de sources infinies. Par exemple on a découvert, lors de l’affaire Cambridge Analytica, que Facebook accumulait des données de santé en masse y compris sur des gens qui n’étaient pas abonnés à Facebook, simplement par le biais, par le truchement des relations qu’elles avaient avec des personnes qui étaient sur Facebook et par les informations qu’on pouvait collecter d’elles au travers de leur navigation sur des pages où il y avait de scripts Facebook.
Par définition, on se rend compte aujourd’hui que la possibilité de ne pas alimenter les profils qui contiennent chez ces data brokers parfois des milliers de paramètres différents sur une personne. Le journaliste du Financial Times qui a fait une grande enquête sur eux, qui portait un titre marrant, il disait : « Ces sociétés sont devenues les étoiles de la mort de la vie privée » en reprenant la métaphore de Star Wars. Le journaliste a découvert dans son profil chez l’un d’eux, je crois que c’était Experian ou Acxiom, qu’il était à risque pour des maladies du rein, chose qu’il ne savait pas et qui lui a été confirmée par la suite par son médecin.
Je pense que le fait de se cacher [devient difficile, voire impossible, Note de l'intervenant] c’était justement le titre du bouquin de Greenwald sur Snowden, Nulle part où se cacher. Je pense qu’aujourd’hui, vu l’ampleur de ces sociétés et vu les liens qu’elles entretiennent les unes avec les autres, cela devient quasiment impossible. J’adhère totalement à l’idée que le microtargeting est toxique. Tant d’un point de vue politique que d’un point de vue sociologique, il est toxique, mais je crois qu’il faut aller plus loin. Aujourd’hui, c’est d’ailleurs ce que réclamait Elizabeth Warren, la candidate démocrate à la primaire, je crois qu’il nous faut sérieusement envisager le démantèlement de ces sociétés. Je précise que les rachats récents de WhatsApp, d’Instagram, ont été faits, je dirais, en mentant à la Commission européenne. Les économistes de la Commission avaient eu l’occasion de s’expliquer en disant « en gros, on s’est fait avoir ». Je pense qu’aujourd’hui ces rachats successifs doivent être véritablement analysés. Est-ce que l’Europe peut, à elle seule, empêcher des fusions ? Oui, ça s’est vu dans le passé. Ça s’est vu dans le passé en particulier pour les turbines d’avion, des deals avec Honeywell n’ont pas pu se faire à la demande de l’Europe entre deux sociétés américaines, au début des années 2000. [Lors du rapprochement prévu entre General Electrics/Honeywell qui aurait eu pour conséquence de créer un quasi-monopole sur les turbines d’avion. L’Europe avait alors pu bloquer cette fusion entre deux sociétés américaines, Note de l'intervenant]. Aujourd’hui empêcher Facebook de racheter sa prochaine proie pour consolider encore plus son pouvoir ce n’est pas de la science-fiction, c’est une possibilité. On en a parlé, le fait aujourd’hui ne plus pouvoir transférer les données des Européens aux États-Unis change la donne. Le magazine Fortune parlait hier d’un possible chaos pour le commerce électrique, je ne sais pas s’il faut aller aussi loin, mais de fait on voit bien qu’on est dans une période où les risques [juridiques et économiques, Note de l'intervenant] par rapport à ces sociétés peuvent venir de l’Europe. Est-ce qu’on doit continuer à faire comme si de rien n’était, comme malheureusement ça a été trop le cas dans les dernières années ? Non. Est-ce qu’on a des instruments ? Oui, et je pense que c’est un des points sur lesquels on doit absolument renouveler la doctrine, c’est qu’on n’a pas, dans la période récente, eu une doctrine de politique industrielle européenne ou française à la hauteur des enjeux. Donc quelque part on s’est, je dirais, confiés – Tariq a eu l’occasion de parler de la France qui s’est vendue aux GAFAM lors de ces 10 ou 15 dernières années.

Sky : Qui s’est vendue ou prostituée ?

Bernard Benhamou : Je ne reprendrais pas le terme, mais je dirais qu’il y a eu une sorte de complaisance et le dernier en date qui a fait encore l’objet de questions9 au gouvernement là-dessus hier, c’est effectivement le Health Data Hub, ce gigantesque agrégateur de données de santé dont même tous les spécialistes disent que c’est un cadeau infini qui vient d’être fait à Microsoft. Monsieur Didier Sicard, spécialiste de l’éthique médicale [ex-président du Comité consultatif national d’éthique], a eu l’occasion de se prononcer récemment là-dessus et beaucoup de parlementaires de tous les bords, y compris de la majorité, se sont déclarés hostiles à ce principe. On doit réfléchir autrement. On ne doit pas simplement essayer d’infléchir un tout petit peu la courbe, on doit se dire que un, nous devons créer une industrie européenne et nous en avons les cerveaux, nous en avons les secteurs, les filières. Yann Le Cun, que citait Tariq tout à l’heure, dirige le pôle d’intelligence artificielle de Facebook, mais on pourrait citer bien d’autres Français dans la Silicon Valley, ingénieurs de très haut niveau. On a largement les talents, simplement on n’a pas articulé une politique comme on l’avait fait dans les années 60/70 sur des secteurs stratégiques aussi bien dans le transport que dans l‘énergie que justement dans le calcul, dans les technologies. On ne l’a pas fait et effectivement il y a une sorte de renoncement progressif, de résignation qui s’est installée. Cette résignation n’est pas une fatalité, du tout ! Du tout.

Tariq Krim : Je peux parler ?

Sky : Permets-toi et prends ton temps.

Tariq Krim : Il y a en fait un paradoxe incroyable c’est que les deux technologies de domination du Web à la fois par la Chine et par les États-Unis ont été inventées en Europe.

Bernard Benhamou : En Europe. En France même.

Tariq Krim : Linux et le Web.

Bernard Benhamou : Et TCP/IP, c’est-à-dire la brique fondamentale de l’Internet, aux dires même de Vinton Cerf, a été élaborée, conceptualisée par un certain Louis Pouzin10, très peu connu des Français, mais qui a été l’architecte des premiers réseaux avec des datagrammes, avec le projet Cyclades, etc. Il a même été récompensé par la reine d’Angleterre pour sa contribution à la création de l’Internet. On se rend compte que nous avons laissé passer, et le Web a été inventé au CERN à Genève dans un laboratoire européen, nous n’avons rien fait de toutes ces technologies.

Tariq Krim : Ce n’est pas qu’on n’en a rien fait. Il faut voir que derrière la technologie il y a des idéologies.

Sky : J’en profite pour poser une question : les plateformes dominantes ont-elles des biais idéologiques ?

Tariq Krim : Justement, historiquement. En ce moment je reviens aux fondamentaux, à l’histoire de la technologie, se dire pourquoi on est là, pourquoi on est là avec des plateformes comme les GAFAM d’un côté et, de l’autre côté, les plateformes chinoises ? Il y a plusieurs choses.
La première c’est d’un point de vue de la technologie : on a deux visions qui se sont toujours opposées.
La première c’était l’idée que la machine sert à augmenter l’être humain, c’est une vision humaniste, c’est Douglas Engelbart11, le type qui a tout inventé, le desktop, la souris, il était à Stanford. Sa vision c’est de dire l’ordinateur, Steve jobs le disait très bien, il disait bicycle for the mind, « un vélo pour l’esprit ». C’est-à-dire que grâce à la machine on était capable de faire plus.
Et de l’autre côté, à peu près à 500 mètres plus loin à Stanford, il y avait John Mc Carthy12, l’un des inventeurs de l’intelligence artificielle, et sa vision c’était « la machine va remplacer le cerveau humain ».
Ces deux visions, en fait, sont tombées court parce qu’il a fallu attendre le Macintosh pour que la vision, on va dire de l’interface, se développe, et il a fallu attendre des années pour que la vision de l’intelligence artificielle décolle.

Sky : C’est-à-dire les pipe-lines de données pour pouvoir entraîner dans l’intelligence artificielle.

Tariq Krim : C’est ça. Et ce qui est drôle c’est que dans une conversation privée que j’avais eue avec un des deux fondateurs de Google, il le dit assez ouvertement – je ne l’ai jamais entendu le dire publiquement – que l’IA c’est quelque chose qu’ils ont découvert. Ils ont découvert, à un moment donné, qu’avec toutes les données qu’ils avaient ils pouvaient faire des choses, ça n’a jamais été quelque chose qui a été pensé. Google était plutôt dans la vision très utilitaire de l’Internet : on a une question, une réponse ; on est capable de répondre, c’était l’Internet de tout ce qui était pratique.
Ce qui s’est passé c’est que d’un point de vue de l’idéologie politique, par contre, on a trois visions : on a une vision américaine, une vision russe et une vision européenne.
La vision américaine c’est la vision des libertariens, c’est celle qui a donné finalement 30-40 ans plus tard Facebook. C’est « en tant qu’individu, l’informatique me donne le pouvoir d’être un individu ». Ce qui est curieux c’est que cette vision a été totalement effacée puisque maintenant le pouvoir d’être individu a quasiment disparu.
Pendant les années 60 c’est fascinant parce que se développe ce qu’on a appelé la cybernétique. La cybernétique se développe notamment chez les militaires parce qu’ils étaient intéressés à l’idée d’automatiser plein de choses, notamment les missiles, et en Russie il y a eu ce qu’on a appelé la cybernétique sociale. Je suis en train de découvrir des choses incroyables notamment cette personne exceptionnelle qui s’appelle Anatoly Kitov13, qui a compris très tôt que la vision de la cybernétique sociale c’était d’algorithmiser le plan quinquennal ; la Russie organisait des plans, planifiait tout, et on s’est dit « on va utiliser la machine pour organiser les gens ». En fait c’était la vision de Facebook et de Google aujourd’hui, 40 ans avant – 40 ans qu’est-ce que je dis, c’était les années 60 –, mais c’est la vision qui a été exportée ensuite en Chine et qui, à mon avis, est un des fondements idéologiques du crédit social. La technologie doit servir non pas à manipuler les gens individuellement, ce qui est le cas de Facebook, mais à construire une forme d’harmonie technologique en identifiant les mauvais et les bons comportements. En Chine on vous dit « tu ne peux pas faire ça, si tu vas tard le soir acheter une bouteille de gin ton crédit baisse ». Cette idée qu’on va gérer l’ensemble de la population, alors que la vision de Facebook est une vision plus libertarienne, c’était l’individu.
En Europe, on l’oublie, dans les années 90 il y a une vision communautaire, cette idée que la technologie doit servir à l’ensemble de la société. C’est une vision qui démarre avec le Chaos Computer Club14 en Allemagne dans les années 80. Linux c’est exactement ça, c’est on développe des choses et on les met à disposition. Je rappelle que le Web c’est « pas de pattern, pas de patent, rien, tout le monde peut l’utiliser ». Donc cette idée que nous allons créer de la technologie qui va servir au bien-être de l’ensemble.
Le problème c’est que cette vision qui est fantastique, qui est une vision…

Sky : Qui perdure !

Tariq Krim : À un moment on a dit « on est nuls, on annule, on va laisser cette vision ».
Ce qui me dérange le plus ce n’est pas tellement la question technologique, la technologie on peut toujours mettre des gens bons, mais pour faire quoi ? Aujourd’hui ce que l’Europe doit montrer, notamment sur les données, c’est comment on construit quelque chose qui est bénéfique à l’ensemble. Et ça, malheureusement, on a échoué ; on a échoué technologiquement, on a échoué idéologiquement, on a échoué politiquement. Il y a plein de raisons, on pourra en discuter, mais on a échoué, pour moi c’est le véritable échec. Et la question de la souveraineté n’est pas uniquement technologique, ce n’est pas de dire « on ne va pas héberger nos données », c’est : est-ce qu’on doit collecter les données ? Pour quoi faire ? Quel est le bénéfice à court terme, moyen terme et long terme ? Et ça c’est une conversation qu’il faut qu’on arrive à faire ouvrir.

Sky : Bernard.

Bernard Benhamou : De la même manière qu’il y a quelques années on a eu des débats sur la bioéthique qui passionnaient non seulement les parlementaires mais même les Français parce qu’effectivement ils étaient capables d’identifier les sujets sur la filiation, sur les manipulations génétiques, ils étaient très vite impliqués. Or, les débats sur les technologies sont plus compliqués à faire comprendre à un large public et pour avoir été de ceux qui ont tenté de le faire, on se rend bien compte de la difficulté, mais je crois qu’on est en train progressivement d’avoir des gens qui demandent à comprendre, étrangement. On parlait effectivement du crédit social, étrangement l’étape d’après maintenant pour le régime chinois, c’est établir une cartographie génétique totale de la population comme a pu le montrer le New-York Times il n’y a pas longtemps. On va donc passer du « crédit social » au « génome social », on va passer, pour les amateurs de science-fiction, de Minority Report à Gattaca, ou un mix des deux. C’est cette dérive que nous devons conjurer. Pourquoi nous, Européens, avons été si méfiants par rapport à la NSA ? Quand je dis nous Européens, plus précisément nos amis Allemands que nous-mêmes Français, sensibles à ces questions, parce que justement il y avait un passé de Stasi, d’écoutes, etc., et sur les manipulations génétiques parce qu’il y avait aussi une idéologie il y a 70-80 ans de ça et qui était terrible par rapport à cette notion de race supérieure, etc. On voit bien que les mécanismes de défense que nous avons développés par rapport à la vie privée n’existent pas du tout de la même manière aux États-Unis ; elle n’est pas du tout codifiée de la même manière, protégée de la même manière. Aux États-Unis, la vie privée était un droit du consommateur. Pour nous Européens c’est un droit fondamental, c’est un droit élémentaire de l’humain.
Eh bien je crois effectivement que c’est cette vision-là qu’on doit justement essayer de faire valoir. Paul Nemitz qui s’occupe des affaires juridiques de la Commission européenne disait « peut-être que la protection des données deviendra pour les années 2010/2020 ce que l’écologie a été dans les années 80 et auparavant ». Au départ, au tout début, l’écologie apparaissait comme politiquement farfelue, aujourd’hui elle apparaît comme indispensable.
De la même manière, ce qui nous paraît encore difficile parce qu’on se dit interdire le micro-ciblage, éviter effectivement ces concentrations de pouvoir infini autour de quelques sociétés américaines ou chinoises puisqu’il y a les deux maintenant, typiquement ça apparaît difficile, mais, de fait, on voit bien que c’est le seul chemin possible. Sinon c’est la tenaille sino-américaine avec d’un côté une dérive totale autour des sociétés qui accumulent les données et, de l’autre côté, un régime chinois qui accumule des outils de surveillance, de contrôle, d’ingénierie sociale, de plus en plus inquiétants. On le voit y compris sur des minorités ethniques, puisque parmi les individus qui seraient le plus directement ciblés figureront…

Sky : Les Ouïghours.

Bernard Benhamou : Exactement, les minorités ethniques et religieuses. On voit bien que là il y a, je dirais, un basculement [politique] parce que, en gros, on voit qu’il y a un risque bien au-delà de la seule sphère économique.

Sky : Je vais me faire l’avocat du diable, donc bingo, un point, c’est un truc entre nous. Le régime chinois du flicage par crédit social, ça va séduire beaucoup de politiciens.

Bernard Benhamou : Ça en séduit déjà ! C’est-à-dire qu’à l’heure actuelle ce que l’on appelle les démocraties illibérales, peu importe, sont effectivement dirigées par des individus qui ont très bien compris l’usage qu’ils pourraient faire d’un système de ce genre. Simplement il se trouve que, je dirais, la Chine a un avantage, entre guillemets, « compétitif » parce qu’elle est capable de le déployer [et de l'expérimenter, Note de l'intervenant] sur un petit peu moins d’un quart de l’humanité. C’est « un angle d’attaque » qui est infiniment plus grand. Mais que des responsables, par exemple dans les équipes de Trump et de Bolsonaro, soient fascinés par des outils de contrôle social ce n’est pas une nouveauté ! Ce n’est pas une nouveauté. Quelque part la volonté d’éteindre toute forme de contestation de manière radicale, voire violente comme ça a pu se faire ces derniers temps.

Sky : En France ?

Bernard Benhamou : En France parfois. Parfois ! Qu’il y ait une fascination technologique, qu’il y ait une forme d’ubris technologique c'est certain, et c’est d’ailleurs peut-être pour ça la raison de la complaisance dont on parlait par rapport à ces sociétés [dont font preuve certains politiques vis-à-vis des ces sociétés, Note de l'intervenant] c’est qu’il y a une forme de fascination pas simplement économique ou libérale, non, c’est aussi une fascination sur les capacités de pouvoir et d’influence [que peuvent donner ces technologies, Note de l'intervenant]. Pour un politique, avoir une influence absolue sur des individus, pour un politique je dirais modestement armé d’un point de vue moral, c’est quelque chose de très tentant.

Tariq Krim : Si je peux me permettre là-dessus, je donne toujours une anecdote. J’étais à la conférence sur l’intelligence artificielle et juste avant que notre président Emmanuel Macron.

Sky : Notre suprême leader.

Tariq Krim : Suprême leader, si tu veux, évoque le sujet, mon téléphone vibre, je prends mon téléphone et c’était une notification de Facebook pour m’annoncer ce que j’allais voir. Je me suis dit waouh !
Le problème du politique et c’est en général vrai aussi pour toute la question du numérique en France — je prends quelques instants mon ancienne casquette de vice-président du Conseil national du numérique — c’est qu'en France le numérique c’est de la comm’ ! Déjà, malheureusement, tous nos ministres ont fait Sciences Po ou HEC, si on ne fait pas ça, on n’est pas ministre et, surtout, on a une vision extrêmement communicationnelle. Donc ce sont les réseaux sociaux, le buzz, le clash. Ce qui est fascinant c’est qu’on leur donne l’illusion de ce pouvoir. Je pense que Facebook, Twitter, les deux d’ailleurs ont choisi, je crois, des énarques comme lobbyistes, mais aussi comme patrons. Ça montre qu’ils avaient très bien compris comment aborder le marché. Mais surtout il y a cette illusion du pouvoir, du nombre de followers, de la course contre la montre et, en fait, ce qu’on fait quand on est politique et qu’on diffuse des messages sur Facebook, on améliore le ranking de ces plateformes, donc en fait on améliore le microtargeting. En ayant l’impression d’avoir un acte citoyen, en tout cas un pouvoir, on oublie qu’en fait on alimente en données, en clics. Le simple fait de regarder, de ne pas regarder, de regarder 20 secondes un discours, tout ça ce sont des informations qui ne vont pas être utilisées par les partis politiques. Si on demande à tous les partis politiques français : est-ce que vous avez des informations très précises sur l’usage de vos internautes ?, ils ne savent pas, par contre Facebook a collecté toutes ces données et va s’en servir derrière pour du targeting publicitaire.
En fait on a aussi un problème essentiel c’est qu’on n’a pas compris. Je pense que tu as dû le faire, on a essayé d’expliquer aux politiques que le numérique va au-delà de la comm’, il faut comprendre l’algorithmie, il faut comprendre un certain nombre de choses assez basiques, il ne faut même pas aller dans les détails.

Sky : Tu as déjà discuté avec Cédric O ?

Tariq Krim : Non, je ne le connais pas. Je l’ai vu sur votre excellente émission.
Ce qui était intéressant avec le CNNum15, le Conseil national du numérique, c’est qu’on voyait beaucoup de politiques, on était censés normalement recevoir les lois avant qu’elles sortent, on devait donc conseiller le gouvernement, on les a quasiment toutes eues sauf la loi sur le renseignement, comme par hasard elle n’est pas passée par nous et c’est là, après, que j’ai compris. On parlait de filière numérique, c’est vrai qu’en France on a quand même une filière sur la surveillance qui est consistante à travers sur les âges. Sur les autres on n’a jamais eu de vision à long terme. C’est-à-dire que dès qu’on a un nouveau ministre ou dès qu’on a un nouveau gouvernement il y a une nouvelle dynamique. En ce moment on a la startup nation qui est plus ou moins, à mon avis, un peu arrivée à la fin.

Sky : La bullshit nation, non ?

Tariq Krim : Je suis un fan, j’ai toujours été fan des startups. Quand j’étais tout jeune j’étais fasciné par Steve Jobs, par Commodore, par toutes ces boîtes d’entrepreneurs, c’était fantastique. Et en France on a ce biais, ce travers, je ne sais pas comment dire, on institutionnalise tout. On a institutionnalisé le rap, la techno, toutes les cultures le plus underground et la startup qui est quand même un truc de rebelles à la base, de gens qui n’ont pas fait d’études, de drop-out, en France c‘est devenu l’inverse, c’est, d’une certaine manière, la continuité d’une forme d’élite sociale où on donne immédiatement à des gamins qui sortent de l’école des statuts de cadre sup. Il y a ça et puis, de l’autre côté, il y a tous les autres qui sont nés du mauvais de l’écran, c’est-à-dire que ce sont des pixels qui déplacent sur Deliveroo, sur Uber, et eux n’ont même pas le droit à la retraite, à des choses basiques. On a aussi construit un système qui montre ses limites.
Aux États-Unis c’est peu normal parce qu’on découvre, avec la crise du covid, que le système explose complètement, même si Amazon est en train de faire une chose assez incroyable, ils ont dit on va faire un système de e-commerce complètement covid free, on va vraiment travailler à optimiser la chaîne de développement et aujourd’hui ils profitent, en trois mois ils ont quasiment annihilé tous leurs concurrents, à part Walmart, il n’y a plus personne qui peut leur faire de la concurrence.
C’est pareil avec Netflix. On sait que le festival de Cannes s'est toujours opposé aux films qui vont passer sur Netflix, on ne les met pas, et cette année on demande à Netflix, Amazon, je ne sais qui d’autre, en streaming, de tout mettre en ligne. On a ce problème : à chaque fois on veut, d’un point de vue politique, avancer dans une direction, donc là la startup nation. Avec Hollande ce n’est pas clair. Je pense que Sarkozy ne savait pas trop, c’était les débuts, mais à l’époque de Hollande on savait pour Snowden, on savait pour les plateformes.

Sky : Pourquoi ? Parce que Axelle Lemaire.

Tariq Krim : Elle, mais Fleur Pellerin aussi. Les deux, en fait, ont eu, je ne veux pas dire un double discours, il fallait dire qu’on fait les choses et en même temps, en coulisses, on a laissé la fameuse ligne rouge dont on parlait, c’est-à-dire des choses qui n’auraient pas dû être faites.
Je vais vous donner une anecdote. Son nom m’échappe, l’ancien patron de l’ANSSI16 qui est maintenant directeur technique.

Sky : Poupard.

Tariq Krim : Poupard c’est maintenant ; celui qui était juste avant lui.

Sky : Celui qui était vraiment coincé, qui se prenait pour…

Tariq Krim : Qui est maintenant à la direction de la DGSE.

Bernard Benhamou : Du renseignement français.

Sky : Il est à la direction de la DGSE lui ?

Tariq Krim : Technique, je crois, directeur technique.

Sky : Technique, heureusement !

Tariq Krim : Il y avait une réunion, on avait discuté et on a parlé de plateformes. En fait, le discours était parfaitement rodé. J’ai eu aussi une conversation avec Poupard. J’ai trouvé les deux excellents sur le discours, j’ai appris que Poupard17 était aussi excellent en crypto, c’est quelqu’un que j’ai trouvé très sympathique, qui, en plus, est vraiment une brute épaisse dans ces domaines, ce n’est pas un touriste, mais leur discours sur la question de la souveraineté, sur la question des plateformes, n’était pas un discours naïf. La première question que je leur pose à chaque fois c’est : est-ce qu’il y a des gens qui vous écoutent ? Est-ce que vous avez la moindre influence ? Aujourd’hui, moi je préférerais que quelqu’un comme Poupard soit ministre du numérique.

Sky : Juste pour l’anecdote, le précédent avant Poupard, je l’avais attrapé à l’École de Guerre, je lui avait posé une question sur les hackers, en gros il m’a dit qu’il n’en avait rien à foutre des hackers. Tu vois le niveau !
Bernard.

Bernard Benhamou : Je crois effectivement qu’il y a eu un problème d’éducation et d’accompagnement du politique par rapport à ces questions. Pour être militant dans ces domaines depuis longtemps, je vois bien les difficultés. Je rejoins l’idée que trop souvent ces technologies ont été vécues comme un outil cosmétique [par nos politiques, Note de l'intervenant]. Donc en lieu et place de mettre une coordination sur les différents sujets clefs – sécurité, éducation, culture, etc. – et d’avoir, comme ça s’est fait sous l’ère Obama, un chief technology officer, c’est-à-dire quelqu’un qui coordonne les technologies fédérales, on a à chaque fois des gens qui ont fonctionné en silos. Par définition on n’a pas une prise en main de ces questions au niveau où elles le mériteraient. Donc on a laissé, effectivement, dériver progressivement ces sujets et surtout on s’est abstenu, voire c’est devenu un mot tabou, le fait de dire « il nous faut créer des conditions de politique industrielle, enfin des actions relevant d'une réelle politique industrielle [dans le domaine des technologies, Note de l'intervenant] ». Tout à l’heure Tariq évoquait les grands entrepreneurs de la Silicon Valley, je citerais une autre économiste, Mariana Mazzucato, qui disait « il n’y a pas une seule des technologies clefs de l’iPhone qui n’ait été, de près ou de loin, financée par des crédits fédéraux américains ».

Tariq Krim : Et français, puisque pendant longtemps les puces STMicroelectronics étaient dans l'iPhone.

Sky : Même Tor18 avait été financé.

Bernard Benhamou : Bien sûr !

Sky : Pourquoi tu rigoles Tariq ? Tu rigoles pour la même chose que moi ! C’est ça ?

Bernard Benhamou : Par définition, on se rend compte que là où aux États-Unis on a créé, aidé des Elon Musk avec des contrats d’État de la NASA [pour Space X, Note de l'intervenant], on a aidé toutes les grandes entreprises à se développer avec des crédits et des commandes fédérales et locales, nous, en France, dès que l’on parle de ça c'est presque un tabou. Le mot que l’on agite maintenant c’est le Small Business Act. Small Business Act c’est l’orientation d’une partie de la commande publique, donc de l’argent du contribuable, vers des petites sociétés, des PME, ce qui se fait aux États-Unis depuis plus de 50 ans. Ce n’est pas compliqué, dès que vous en parlez vous vous heurtez à une vision quasiment dogmatique, certains diraient de l'ordolibéralisme qui est de dire « non, vous êtes en train de vous en prendre à l’équilibre du marché, donc il ne faut surtout pas ». Eh bien non, aux États-Unis cela a fonctionné. Leur interventionnisme est l'un de leurs secrets les mieux cachés. Ils essayent de mettre en avant des figures charismatiques,Jeff Bezos, Elon Musk, anciennement Steve Jobs,Bill Gates, en gommant toute l’action gouvernementale justement pour essayer de leur donner des armes le plus tôt possible pour ça [pour leur développement, ce qui a permis à ces entrepreneurs de créer des empires, Note de l'intervenant].

Tariq Krim : Je voulais juste revenir là-dessus parce que je suis absolument d’accord avec ce point.
Lors d’un débat sur le Health Data Hub, j’avais écouté notre ex-ministre du numérique, Cédric O, parler : « Mais vous imaginez, Amazon ils mettent – je crois qu’il parlait de 20 milliards – dans le cloud par an ».

Sky : Qui est le nouveau ministre ?

Tariq Krim : On ne sait pas.

Sky : 20 milliards dans le cloud.

Bernard Benhamou : Ça a d’ailleurs été repris hier par Véran.

Tariq Krim : Absolument ! « 20 milliards dans le cloud, on ne peut pas s’opposer à ça. »
Je pense que ce sont des gens qui ont une vision libérale à la française, c’est-à-dire qu’ils pensent que le marché est parfait : s’ils sont là c’est parce qu’ils sont bons. On oublie qu’on a enlevé les taxes sur le e-commerce. J’ai un copain qui a fait l‘IPO Initial Public Offering] d’Amazon il y a 20 ans, l’entrée en bourse, ils avaient levé 85 millions. Ce n’est rien ! Ils ont transformé ça en une machine de guerre incroyable. Je pense que Jeff Bezos est fondamentalement aujourd’hui l’entrepreneur vivant le plus impressionnant. Je le préfère à Elon Musk, même si je pense qu’il est très malin et très impressionnant parce qu’il a construit un empire, mais il l’a construit avec l’aide de l’État américain, avec la diplomatie américaine. Je rappelle que la diplomatie américaine demande à Twitter de ne pas mettre à jour, au moment des troubles de la révolution en Iran, le fait que l’État est derrière. Je sais que vous avez fait une émission sur le Cloud Act, mais toute la régulation et la réglementation est faite au service des boîtes américaines.
Eric Schmidt a quitté Google, maintenant il est conseiller du Pentagone, et il a publié, vous pouvez le trouver facilement sur Internet, un document PDF de 80 pages sur le risque de la Chine, puisqu’on est en guerre froide technologique avec la Chine depuis que Trump est arrivé, on l’était un peu mais là c’est un peu plus visible, et c’est fascinant quand vous lisez ce document. Je ne sais pas si quelqu’un en France aurait été capable de faire quelque chose d’aussi bon et surtout on prend conscience du fait qu’on est dans une logique où les États-Unis sont derrière toutes leurs entreprises.

Sky : Ou les entreprises américaines font partie du bras armé de la diplomatie et de la politique extérieure américaine.

Tariq Krim : Absolument. Complètement !

Sky : Est-ce que vous avez lu Raymond Aron ? Un peu ? Non !

Bernard Benhamou : En d’autres temps, oui.

Tariq Krim : Un peu moins.
Je voulais simplement dire que si ces sociétés sont là où elles sont, elles sont là parce qu’elles sont très bonnes, mais parce que la machine américaine, et c’est normal, leur a enlevé toutes les contraintes. Il y a un problème de taxes ? On vous enlève les taxes, on défiscalise.

Bernard Benhamou : Directes. Indirectes.

Sky : Et en échange on garde une petite main à l’intérieur.

Tariq Krim : J’ai posé la question à un ami qui était directeur de la sécurité chez Google, après il est allé chez The Intercept.

Sky : Il était chez The Intercept pour faire des enquêtes ?

Tariq Krim : Non. Il m’expliquait comment ça marche. En fait, chez Google, Facebook, il y a des gens embedded, donc des gens du renseignement, mais ils sont choisis par les headcheers. C’est-à-dire qu’en fait ils ne peuvent pas prendre n’importe qui, ils ont besoin d’avoir des gens habilités, mais ils ont un certain nombre de personnes qui sont là, qui ne reportent qu’au CIO [chief information officer] et qui exécutent les fameuses requêtes FISA [Foreign Intelligence Surveillance Act], les fameuses requêtes qui sont demandées pour accéder à des données, donc ils font ça. Il y a effectivement un contingent de gens. C’est un système qui est un peu limite mais qui est légal. Simplement, ce qu’ils ont fait, c’est qu’il y a des juges qu’on peut appeler à n’importe quelle heure de la journée, on peut leur demander autant de requêtes qu’on veut et ils signent, c’est quasiment automatisé, mais c’est contrôlé. En tout cas, tel qu’on me l’a expliqué, c’est officiel, plein de gens savent. Les employés ne savent pas qui c’est, évidemment, mais les patrons, donc à l’époque Larry Page, Mark Zuckerberg et les autres, savent. Je dirais que d’une certaine manière la relation entre le militaire, le renseignement et l’Internet a toujours été relativement souple !

Sky : Dis-moi, quand tu en repères un, tu gagnes un tee-shirt ou pas ?

Tariq Krim : Peut-être !

Sky : Avec marqué I spot the fed? [« J'ai repéré un agent fédéral », jeu potache à la grande convention de hackers DEFCON, NdT]

Tariq Krim : Il y a des années on est allés dans une conférence de hackers, Hacking in Progress, c’était en Hollande, organisée par le groupe de pirates qui s’appelait XS4ALL, des types fantastiques, on a rencontré plein de gens. Les gens qui faisaient partie de la NSA, parce qu’il y en avait pas mal, devaient avoir un badge orange. Il y en a plein qui n’avaient mis de badge orange, donc il fallait spotter ; à la fin ils ont tous été détectés. À l’époque on avait fait une conférence sur Echelon, un petit truc, on était une quinzaine et il y a trois types qui sont venus, un peu plus âgés et qui nous ont dit « ce n’est pas exactement comme ça ». C’était fascinant. Ce qui m’a toujours fasciné dans la NSA, un truc qui me fascine presque depuis le milieu des années 80, c’est comment on est capable d’analyser autant d’informations, de stocker autant d’informations. Si le savoir-faire de la NSA était utilisé dans les bibliothèques, c’est-à-dire dans une vision un peu plus positive ! C’est incroyable ! Il ne faut pas oublier que NeXT, qui était la boîte de Steve Jobs, dont tout le monde pensait qu’elle était morte, en fait elle vendait toutes ses machines à la CIA, à la NSA, elle n’avait pas le droit de le dire. Quand ils ont été rachetés par Apple on a fini par se rendre compte que ça fonctionnait. Des gens comme Steve Jobs vendait à ces agences. Google a eu des financements puisqu’après le 11 septembre quasiment tout l’argent est parti dans le…

Sky : Contre-terrorisme.

Tariq Krim : Contre-terrorisme et l’analyse sémantique, tous ces outils, tout le monde s’est positionné. D’ailleurs Palantir, d’une certaine manière, a un peu profité de ça. Google aussi a eu des subventions. Il se trouve que le type full discloser, le type qui a créé In-Q-Tel, le fonds…

Bernard Benhamou : Un fonds d’investissement de la CIA.

Tariq Krim : A été un de mes investisseurs quand je faisais Netvibes, c’est devenu le general partner d’Axcel, Axcel qui était l’investisseur de Facebook, de plein d’autres boîtes.
Il y a toujours eu des relations plutôt business parce que, comme vous le savez, aux États-Unis le budget du Pentagone est, je ne vais même pas dire astronomique, donc tout le monde, à commencer par les nouveaux, Palantir et les autres, ce qu’on appelle le nouveau consortium milataro-industriel, n’ont qu’une vue c’est de prendre une part du gâteau. Le projet JEDI [Joint Enterprise Defense Infrastructure] qui devait normalement revenir à Amazon et qui est arrivé à Microsoft, c’était dix milliards.

Sky : Explique ce qu’est le projet JEDI. Juste en gros.

Bernard Benhamou : En gros, ce marché technologique du Pentagone a donné lieu à un procès, ce qui est quand même assez inhabituel de la part d’un géant américain, du fait de leur exclusion manifestement dirigée contre eux par Trump, a porté plainte contre le Pentagone. Vous imaginez : une grande société porter plainte contre le Pentagone et effectivement réussir à geler le marché.

Tariq Krim : Juste pour répondre, JEDI c’était le projet de cloud du Pentagone.

Bernard Benhamou : Sur ces sujets je vous recommande l’excellent ouvrage de Shane Harris qui s’appelle @War, avec l’arobase War sur le lobby militaro-internet aux États-Unis. C’est aussi une belle description de l’histoire des liens entre les deux.
Quelque part, on a spontanément tendance à se dire que c’est mal [que les liens entre militaires et technologies sont forcément toxiques, Note de l'intervenant]. Oui et non ! Que militaires aient été historiquement avides de nouvelles technologies, c’est vrai dans tous les pays. Que les innovations, je citais tout à l’heure les innovations de l’iPhone depuis le tactile, l’intelligence artificielle, le système Siri, etc., aient d’abord été développées dans des enceintes militaires, à des fins militaires, c'est un fait. On rappellera quand même que les premières recherches sur les interfaces en réalité augmentée, étaient destinées aux systèmes militaires de visée dite « tête haute » pour les pilotes d’avion de chasse.
À partir du moment où on a des budgets qui sont hors de contrôle, comme on le voit en ce moment au point qu'on est en train de s’interroger même aux États-Unis maintenant sur le fait que ces budgets soient de hors de contrôle, le problème se pose. Mais que les militaires puissent être, dans le cadre d’une politique industrielle intelligemment conçue, à l’origine et accompagner des sociétés et des technologies dans ces domaines, en tant que tel ce n’est pas choquant. La preuve en est, on rappellera pour ceux qui auraient vécu dans une cave ces 50 dernières années, que l’Internet est né de projets menés par le Département de la Recherche militaire américaine, le DARPA.

Tariq Krim : Il y a 30 ans alors.

Bernard Benhamou : Ceci est une datation que je ne reprendrais pas. Un homme politique français a récemment écrit « il y a 30 ans naissait l’Internet », confondant la naissance du Web et celle de l’Internet.

Sky : Tariq, combien de fois on a essayé de te recruter ?

Tariq Krim : Une fois.

Sky : C’était des Français ou c’était d’autres ?

Tariq Krim : C’était des Français, quand même !

Bernard Benhamou : Quand même !

Sky : Quand même !

Tariq Krim : J’étais à San Francisco avec la personne qui m’hébergeait, un type fantastique qui a été un pionner du MP3, et on avait un serveur, d’ailleurs on avait un nom de domaine assez cool à l’époque, on avait hackers.org, qu’on a perdu.

Sky : En quelle année ?

Tariq Krim : C’était en 1996. On hébergeait le site de Dorothée. Il y a des gens qui sont venus pirater le site, qui ont réussi, ils ont trouvé un rootkit et ils ont effacé plein de choses dont tous mes mails personnels. C’est une époque où j’étais assez sensible à ces questions. À l’époque je travaillais chez Sun Microsystems, une filiale entre Sun et Thomson et les types au-dessus, il y avait Shimomura, Dan Farmer, des gens qui avaient travaillé notamment sur SATAN [Security Administrator's Tool for Analyzing Networks], donc on a essayé de faire le tracé inverse. On s’est rendu compte qu’ils étaient passés par une université au Texas. On avait fait le chemin inverse. Et je ne sais pas pourquoi ça m’a fasciné, je n’avais jamais vraiment fait ça et j’ai passé presque un mois et demi.

Sky : Vous avez trouvé ?

Tariq Krim : Oui. Je vais raconter l’histoire.
Déjà on se retrouve avec le FBI parce que dès lors que ça sort, le FBI était en fait l’équivalent, il travaillait avec Interpol, c’est devenu un truc multi-réseaux parce qu’ils avaient fait ça dans plein d’autres universités. On est venu voir les personnes avec Gilles à l’époque, on a amené les listings, ils nous posaient des questions basiques. Donc on a dit « ils ont hackés tel serveur, ils sont passés sur ce serveur, ils sont passés sur ce serveur » et la personne qui était en face de nous – on était dans une pièce avec évidemment un micro, une vitre sans tain – nous dit « je vous interromps ici, est-ce que ce qu’ils ont fait est illégal ? » À ce moment-là on entend une porte s’ouvrir, quelqu’un arrive et dit I am taking it from there, donc « je prends » et on a retrouvé. La personne était basée au Portugal mais en fait c’était un Français. À la fin je l’ai eu au téléphone, sa mère m’a donné le numéro de son dorm room je l’ai appelé. Finalement je n’ai rien fait ! Qu’est-ce que je pouvais faire ?
Par contre, une personne que je ne nommerai pas parce que malheureusement maintenant elle n’est plus avec nous, avait eu son serveur en France hacké et elle a dit « je vais porter plainte ». J’ai dit « on a tous eu 17 ans, on ne va pas le faire ». Lui si. Suite à ça, la personne qui s’occupait de ça, le policier dont le nom m’échappe maintenant, qui s’occupait de la brigade autour de ça, m’a dit « est-ce que vous voulez faire ce genre de boulot ? » Et je lui ai répondu non.

Sky : Ils ont proposé combien ?

Tariq Krim : On n’en est pas arrivé là, il m’a dit « on aurait besoin de gens comme vous, de limiers ». J’ai dit « je ne suis pas un limier. C’est juste, à un moment donné, quelque chose de personnel qui est devenu une espèce d’obsession ». En plus j’ai appris énormément. J’allais voir les gens au premier étage qui me disaient « est-ce que tu as pensé à ça ? » C’est là que j’ai découvert qu’il y a des gens sur l’Internet qui pouvaient aller deux fois plus vite que la moyenne. On était en 1996, on était vraiment au tout début. Ça m’avait fasciné, mais ce n’était pas mon sujet. J’aimais bien les questions d’intelligence économique, j’en ai parlé de temps en temps, comme ça, avec quelques personnes des services. J’ai découvert après, je me suis beaucoup intéressé à ces questions de hacking et autres et, à un moment donné, j’en ai eu marre. Je me suis rendu compte que si on reste dans ce milieu on ne peut plus vivre, donc je suis reparti sur des choses plus fun, la musique en ligne, le MP3 qui est devenu après le piratage, Napster, toute cette période.
C’était une belle époque ! C’est l’époque qui me manque beaucoup parce que ce qu’on oublie c’est qu’avant l’ordinateur c’était le nôtre, c’était notre machine, notre disque dur, nos fichiers. Il n’y avait personne pour comptabiliser le nombre de fois que j’ai écouté telle musique, ce qui peut d’ailleurs avoir une implication politique ou pas, donc on n’avait pas cette analyse, on était dans un univers où la machine nous appartenait, c’était une forme de souveraineté personnelle. Un jour on a dispersé les choses dans le cloud et des gens avaient accès à ces choses. Quand on développe — et c’est pour ça que je n’aime pas l’idée de simplifier l’algorithmie — quand on développe un projet, ce que j’ai pu faire avec Netvibes19, Jolicloud20 et d’autres choses, on a un pouvoir sur l’utilisateur. Aujourd’hui on peut faire croire à l’utilisateur ce qu’on veut sur un écran. On peut lui mentir, lui raconter des bobards, on peut le manipuler et ça, ça demande, en fait, une véritable forme d’humilité qu’on n’a pas toujours. Je pense que ce qui s’est passé chez Facebook, chez Google et chez d’autres acteurs c’est qu’ils ont, à un moment donné, pété les plombs. Ils se sont dit « on sait mieux que les autres ». Et quand vous regardez les startups, c’est fascinant, vous avez le plus souvent des gens très jeunes et c’est volontaire.
En France, quand vous êtes développeur et que vous restez développeur tard vous êtes un looser, alors qu’aux États-Unis vous êtes ce qu’on appelle un « senior développeur ». James Gosling, qui avait fait le Java, était un senior développeur. J’ai vu des gens qui ont fait des bases de données dans les années 60/70 qui sont toujours bons, leur cerveau fonctionne, ils n’avaient pas envie de manager d’autres gens, ils avaient envie de vivre de leur passion. En France on n’a pas ça malheureusement. Dès qu’on passe ce niveau, il faut qu’on devienne manager. Et là je perds un peu de fil de ce que je veux dire parce que tu me regardes !

Sky : C’était très bien !

Tariq Krim : Je voulais juste revenir là-dessus. Le contrôle. On a perdu le contrôle de sa vie numérique et c’est pour ça que maintenant je parle beaucoup, je ne sais pas si on aura le temps de parler un peu de slow Web.

Sky : Après.

Tariq Krim : On fera ça après, je vais laisser Bernard.
Ce contrôle on l’a perdu et aujourd’hui il n’y a plus aucune autorité de régulation capable de nous redonner ce contrôle.
Souvent, Bernard, tu me dis « tu es nostalgique ». Je suis nostalgique d’un temps où on pouvait aller dans les aéroports sans avoir à passer deux heures avant ou après à se poser des questions, mais je suis aussi nostalgique d’un temps où la machine était un véritable compagnon. C’était un outil de confiance. Ce qui m’a fasciné avec l’ordinateur, quand on est très jeune et on a tous découvert son premier ordinateur, c‘est que la machine ne nous ment pas, la machine fait ce qu’on lui demande. Il y a cette relation unique que l’on construit.
Aujourd’hui, quand on démarre avec son premier ordinateur, c’est en fait un iPhone, on a un outil qui est déjà par définition perverti commercialement. Je trouve ça assez triste pour la génération qui aujourd’hui découvre et qui devrait apprendre qu’un ordinateur ça se démonte, ça se décompile, ça s’analyse et c’est ça qu’il faut qu’on arrive à apprendre à la jeune génération.

Sky : Bernard.

Bernard Benhamou : Je vote entièrement cette proposition. Le principe fondateur de l’Internet c’était le principe du end to end, c’est-à-dire que toutes les machines avaient les mêmes droits, les mêmes devoirs sur le réseau, ce qu’on a appelé par la suite neutralité du Net21. Il se trouve que maintenant on a centralisé le pouvoir autour de quelques plateformes [des GAFAM, Note de l'intervenant]. Donc oui, effectivement, il s'agit d’essayer d'éviter ça. Je dirais que la traduction politique de cette volonté c’est éviter que les GAFAM ne deviennent non pas omnipotents, ce qu’ils sont déjà, mais durablement omnipotents ce qu’ils pourraient être si on n’y prend pas garde.
Je dirais que parmi les sociétés qui sont moins connues des Français, mais certainement plus connues de vos auditeurs, on parlait de Palantir tout à l’heure, le fait que les renseignements intérieurs, donc la DGSI, aient reconduit leur contrat avec une société qui a été financée, conçue avec justement In-Q-Tel, sur les crédits de la CIA et très directement mêlée à l’appareil de renseignement américain et que ce soit cette même société qui ait essayé de gérer les données covid, qui l’a d’ailleurs obtenu en Angleterre, la France a refusé.
Il faut préciser que quand Palantir s'approche des autorités…

Sky : Qu’est-ce que c’est Palantir pour les newbies [débutants] qui sont là ?

Bernard Benhamou : Palantir22 c’est la société fondée pour analyser le big data dans la lutte antiterroriste aux États-Unis. Ce sont eux qui ont été les plus à même de développer un savoir-faire unique auprès de quasiment la totalité des agences de renseignement américaines. Lorsque vous regardez la liste des clients de Palantir, vous avez le gratin du renseignement et des sphères militaires américaines. Que cette société ait été choisie par la France pour les renseignements [l'analyse des renseignements, Note de l'intervenant] antiterroristes en France c’est déjà une erreur, que le contrat ait été reconduit en est une autre. Et là encore, moi je crois que la solution essentielle c’est éviter que ce genre de chose soit possible. C’est-à-dire que ça ne pose pas question dans l’esprit d’un politique de gérer et de faire gérer des données de ce genre – comme on en a parlé pour les données de santé qui sont infiniment cruciales pour les individus surtout en période de pandémie – que ça n’ait pas levé des drapeaux rouges dans l’esprit des gens, c’est la preuve qu’il y a eu une porosité, il y a eu une complaisance, il y a eu une forme effectivement de laisser-faire et je pense qu’il y a des réponses politiques [à apporter pour que cela ne soit plus possible à l’avenir, Note de l'intervenant].
Par rapport à ces mastodontes que sont devenus les GAFAM, qui ont perverti l’esprit pionner du Web et de l’Internet en général, je pense qu’il y a des solutions politiques. Je citerais un politique, qu’on a cité parlant de toute autre chose, en fait ce n’était pas lui, c’était Mauriac, je crois, « j’aime tellement l’Allemagne que j’aimerais qu’il y en ait plusieurs ». Moi je crois que j’aime tellement les GAFAM que j’aimerais qu’ils soient divisés en tout petits morceaux. Ou, pour être précis, que ces sociétés ne puissent pas en permanence utiliser leurs muscles monopolistiques pour empêcher effectivement toute forme d’existence industrielle dans ces domaines.

Sky : Pour cela, il faut un peu de courage politique, c’est ça ?

Bernard Benhamou : Absolument ! Il faut du muscle politique. Je dirais là-dessus que plus les temps se durcissent par rapport aux questions de manipulation des opinions publiques, de radicalisation, plus les politiques qui rechignaient à positionner sur les questions industrielles, de politique industrielle, quand il est question de leur survie à court terme dans le cadre électoral, tout d’un coup ils se révèlent beaucoup plus réactifs qu’on ne l’imaginait.
Là-dessus je dirais qu’on arrive à une période où effectivement l’inaction aura une traduction politique radicale. Et c’est le cas de le dire, radicale !

Sky : Il y a trois/quatre personnes qui nous ont demandé de vous faire parler autour de Aaron Swartz23. Tariq.

Tariq Krim : Je le connaissais pas mal puisqu’on a travaillé à l’époque, quand je faisais Netvibes, il était lié à la création de RSS, le format de syndication des news. C’est quelqu’un que j’ai évidemment toujours apprécié. Il y a plusieurs choses qui sont tristes.
Un, je pense que c’est quelqu’un qui était hypersensible, quelqu’un qui avait une vision humaniste du monde. Quand on parle de MP3, de Torrent, de Big Torrent, ce qui me fascine aujourd’hui c’est que la mémoire du monde, la vraie mémoire du monde, des films, les choses introuvables – quand on est cinéphile Nextflix c’est sympa mais soit ce sont des séries Z de SF avec des scénarios qu’on a déjà vu dans les années 90, soit ce sont des films des années 90 qu’on a déjà vus 50 fois et puis, de temps en temps, il y a une ou deux perles –, mais la vraie mémoire du monde elle est en ligne, elle se cache derrière Pirate Bay, derrière de services comme cela. Lui, par rapport au savoir scientifique, il avait aussi cette vision. C’est une vision que j’ai toujours partagée, parce que je pense qu’à un moment donné dans l’humanité, à un moment t il faut au moins que la moitié du savoir soit librement accessible. Le problème qu’on a aujourd’hui c’est que les brevets et les copyrights durent de plus en plus longtemps et on produit de plus en plus de choses. En fait, d’un point de vue mathématique, le nombre de choses qui sont librement accessibles se réduit.

Bernard Benhamou : On va peut-être préciser comment il a, malheureusement, terminé.

Tariq Krim : Oui, bien sûr.
La deuxième chose c’est que je pense que le MIT, une institution qui est aussi très fortement liée aux militaires.

Sky : Au début ils ont fait les bâtards quand même.

Tariq Krim : Le MIT a mal joué, a vraiment mal joué, je pense que c’est une tâche. Il y a ça, il y a évidemment l’histoire avec Epstein et c’est une vraie tâche. L’Internet a aussi besoin de héros. C’est un vrai héros aussi parce qu’il représente la personne qui était pure et je le pense vraiment ; ce n’était pas un intime mais c’est quelqu’un avec qui j’ai discuté plusieurs fois, que j’ai vu quand j’étais aux États-Unis, qui a quand même monté Reddit, on l’oublie. C’est-à-dire qu’Alexis et toute la bande c’étaient les tchatcheurs et c’était lui, en fait, qui délivrait le truc, qui est devenu aussi un produit ; il avait cette vision pure et je pense qu’il n’aimerait pas trop ce que c’est devenu.
On a besoin de héros. On a d’un côté Snowden aussi. Il y a plein de gens. Je suis fan de The Mentor qui était le manifeste hacker et Tron aussi qui était mon hacker préféré, un Allemand qui avait cracké le GSM dans les années 90, qui était aussi une personne pure, c’était un génie qui avait vraiment le cœur pur. Lui avait cette vision du savoir technologique, l’idée que la technologie doit être au service… non pas de l’humain. Mon père me le dit toujours : « Quand tu as un talent particulier dans la vie, que tu es très bon dans un domaine, si tu ne l’utilises pas pour rendre le monde meilleur en fait tu es un peu un pauvre type ». Malheureusement beaucoup de gens sont géniaux et qui font des trucs ! Et ce n’était pas le cas de Aaron, c’était vraiment quelqu’un d’incroyable.

Sky : Bernard, comment il a terminé ?

Bernard Benhamou : Malheureusement, et c’est pour ça que je dirais que c’est un héros foudroyé, écrasé, dans son trajet, qui s’est suicidé.

Sky : Qui a été poussé au suicide.

Bernard Benhamou : Voilà ! S’est-il fait suicider ?, on ne peut pas le dire ainsi, mais on peut dire simplement qu’il a été acculé, effectivement, à cette solution extrême alors même que sincèrement tous ceux qui ont eu l’occasion de l’approcher ! Un de mes amis le connaissait très bien, un certain Larry Lessig24.

Sky : Qui a failli être juge, mais qui a refusé.

Bernard Benhamou : Voilà. Tout à l’heure Tariq parlait des commons, ces communs comme on dit maintenant en français, c’est-à-dire ce patrimoine librement accessible sur internet, Swartz y a beaucoup participé. Lessig a créé les Creative Commons25 qui ont permis justement de desserrer un peu le carcan autour du copyright américain.

Sky : Lessig était un peu le parrain d’Aaron.

Bernard Benhamou : Absolument. Il a été véritablement écrasé par son décès. Sans trahir de secret, il y a deux périodes où je l’ai vu particulièrement déprimé : d’une part après le décès de Aaron Swartz et effectivement après l’élection de Trump.
Je précise qu'à l'origine Lessig était juriste, constitutionnaliste, il est devenu un des experts de la régulation des réseaux, c’est vraiment quelqu’un de remarquable. Il a enseigné à Harvard et à Stanford. Par la suite il en a eu assez, justement du fait de l’évolution de cette industrie [sur les questions de propriété intellectuelle, Note de l'intervenant].

Sky : Il a fait une marche.

Bernard Benhamou : Il a fait ça et surtout il est allé s’occuper de lutte contre la corruption aux États-Unis, ce qui est un vaste sujet y compris dans le domaine politique, c’est-à-dire dans le financement du système politique américain.
On voit là des trajets un peu parallèles entre la pureté technologique et la volonté justement humaniste d’un Swartz et effectivement le juriste qui devient un expert de l’Internet et qui, par la suite, a besoin d’aller exprimer un autre combat [politique].
Pour être tout à fait sincère je le regrette. Sur le domaine des technologies je crois qu’il aurait pu continuer à nous apporter beaucoup, mais il est vrai que la noblesse du combat qu’il a aujourd’hui contre la corruption est tout aussi importante.

Sky : Pour résumer trivialement son histoire, Aaron a essayé de mettre le savoir du MIT en ligne. Il trouvait que c’était un peu scandaleux de payer 50 000 dollars pour ça alors que la connaissance doit être libre. Il a installé de quoi copier, mettre en ligne et ça n’a pas plu. Ensuite il a été poursuivi. Il n’était poursuivi que pour ça. Il a été poursuivi, il a claqué les millions de dollars qu’il avait pour se défendre, il en a eu marre et voilà !

Tariq Krim : Je crois qu’il est tombé sur un procureur qui était assez dur, qui n’avait pas, en fait, estimé le risque de fragilité et puis surtout, il a eu le sentiment, j’en parle par le biais d’un autre ami au MIT qui m’a parlé, il avait le sentiment d’être un peu abandonné y compris par les gens qui l’ont soutenu. Mais, en même temps, je comprends ce par quoi il est passé. On a tous été un peu des pionniers et aujourd’hui ce qu’on voit tous les jours, quand on voit ce que l’Internet devient, ce que le discours sur l’Internet devient !
Dans les années 95/96, quand l’Internet arrive en France et que les politiques ne savent pas trop, eh bien ceux-là ont souvent une vision plus juste du débat. Quand on voit aujourd’hui les débats sur la loi Avia, la loi sur le renseignement, sur le pseudonymat, c’est-à-dire qu’on revient, en fait, sur les mêmes choses et ça a un côté un peu déprimant.
Je m’étais très impliqué sur la loi DAVDSI [Droit d'auteur et droits voisins dans la société de l'information], donc la loi avant, puisqu’on avait réussi à faire sauter la loi, elle a été revotée, je me suis retrouvé convoqué par Sarkozy, sa directrice Emmanuelle Mignon à l’époque, pour essayer de parler de MP3. Quand on voit ce qui s’est passé après avec l’Hadopi [Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet], on a l’impression, en fait, que ce sont des sujets qui reviennent en permanence. Je vais très honnête, parfois je ne comprends pas pourquoi. Le débat sur la haine sur Internet, le débat sur le pseudonymat, enfin l’anonymat qui apparemment revient, ce sont des faux débats. Les vrais débats c’est comment on construit des infrastructures et des outils.
Cette pandémie, donc cette crise du covid, a montré qu’en France on a un problème d’infrastructures et d’outils. J’ai appris par un ami qu’apparemment le CNED [Centre national d'études à distance] utilise une techno américaine qui s’appelle Blackboard, il est probable que les gens ne savent pas que les données sont aux États-Unis.
Si on avait des infrastructures, des outils, et qu’on dise aux gens débrouillez-vous, organisez-vous. Ce qui est incroyable avec les hôpitaux c’est que pendant que le sommet était complètement paralysé – des réunions de crise, les « powerpoint-ites », etc., l’hôpital a géré les choses, il a géré au jour le jour. Si on avait des infrastructures c’est-à-dire du haut débit, des outils et de la formation suffisante qu’on puisse donner aux gens, on pourrait, en fait, laisser les gens se débrouiller et construire quelque chose de décentralisé. Cette idée pour moi est très importante. Au lieu de faire une startup nation, il faudrait qu’on fasse une infrastructure nation, qu’on investisse l’argent que l’on a à construire une infrastructure qui soit stable, qui soit sur le long terme. J’espère qu’on parlera un peu de slow Web après, mais pour moi le rôle de l’État c’est de ralentir le temps.

Sky : On va en parler maintenant. Alors ?

Tariq Krim : Si on part du parallèle que Google est le Mac Donald de la pensée, donc il faut autre chose, il faut du bio, il faut repartir sur quelque chose. On est, en fait, ce que l’on mange. Aujourd’hui, ce qu’on consomme numériquement, c’est assez peu digeste. C’est dépression, la dépression ce sont les teen-agers. Il y avait un article qui est sorti dans The Atlantic qui était terrifiant quand on voyait les gamins qui sont en permanence sur Instagram et désormais sur Tik Tok à se comparer à une vision, une fausse vision de leurs amis, cette idée qu’on est en permanence jugé. Il faut repenser les choses. Ce qui me plaît avec le mouvement du Slow Food qui est né en 1989 en Italie, contre l’arrivée de Mac Donald à Rome, c’est comment on cultive, donc comment on fait grandir les produits, comment on les cuisine, et surtout la convivialité de les manger ensemble. Je me rappelle ces dîners que j’adore quand on dîne avec des amis et on parle trois heures, quatre heures, le dîner dure toute la nuit. Cette convivialité, finalement, doit se traduire aussi dans le logiciel. C’est-à-dire que les données que l’on fait grandir il faut déjà les minimiser, la manière dont on fait les produit et la manière dont on les sert et l’expérience doit être différente.
Le slow Web ce sont quatre idées.
La première c’est le fait qu’il y ait une transparence. Le logiciel que l’on a aujourd’hui n’est pas transparent. Quand je prends Facebook et que je like une photo, j’ai l’impression que l’action que je fais c’est liker une photo et la personne dont j’ai liké la photo va recevoir une notification « vous avez été liké par Tariq ». La réalité c’est que derrière il y a plusieurs algorithmes, notamment le EdgeRank qui va faire : « Ah ! il like plus souvent telle personne, donc je vais changer l’organisation. Ah ! j’ai analysé la photo avec une IA, il y a un chien, je vais lui vendre des croquettes pour chien. Ah ! Tiens ! Il a envie d’aller en voyage je vais analyser tel chat ». En fait, il y a peut-être 30/40 choses qui vont se faire avec une simple action. Cela n’est pas visible par l’utilisateur. Le minimum ça serait que l’on dise « l’ensemble des choses que vous voyez a été choisi par un algorithme. Elles ne sont pas là par le biais du hasard ».
La deuxième chose c’est la non-manipulation, ce qu’on disait tout à l’heure c’est qu’avec le design, ce qu’on appelle les dark patterns, l’idée d’obliger les gens à faire certaines choses, c’est un vrai problème. C’est un problème éthique, c’est un problème qui est connu, c’est d’ailleurs une chose qu’utilise de plus en plus l’État. Quand j’avais signé « contre » au référendum, j’étais opposé évidemment à la vente d’Aéroports de Paris, je me suis rendu compte qu’il fallait écrire en majuscules et il fallait utiliser l’ordre exact de sa carte d’identité, mais ce n’était pas indiqué. Quand j’ai voulu me faire rembourser ma carte Navigo, je ne sais pas si quelqu’un a réussi à se faire rembourser sa carte Navigo, j’ai vu le système et je me suis dit « si on ne veut pas faire quelque chose en ligne, qu’est-ce qui se passe le jour où il n’y a plus de bureaux physiques pour faire les choses ? »
Ce qui m’énerve avec le discours qu’on entend, « il faut mettre tout le monde sur Internet », il y a des gens qui ne sont pas sur Internet parce qu’ils ne veulent pas. Feu ma maman avait des problèmes, envoyer un e-mail à l’administration c’est quelque chose qui la stresse. Elle a besoin de voir quelqu’un qui lui dit « c’est bon », il y a un tampon, c’est fait. Il y a plein de gens qui n’acceptent cette idée que virtuellement on discute avec une autorité et les outils dont on dispose n’ont pas ça.
La troisième chose c’est le mode incognito, ce dont on parlait tout à l’heure. Quand j’avais un iPod ou un baladeur MP3, il n’y avait pas un algorithme pour me dire tu vas écouter cette chanson. Si j’ai envie d’écouter une chanson débile sous la douche tous les jours, 50 fois, je n’ai pas envie que la plateforme le sache. On doit être capable de dire « on stoppe ».
et la quatrième chose, un truc qui est assez récent, eh bien c’est simple c’est le droit de terminer une relation, le droit de dire « je pars, c’est fini ». Un copain me disait qu’apparemment, quand on veut se désabonner de Sky, l’équivalent de Canal+ en Angleterre, il faut passer une heure au téléphone avec quelqu’un. Aujourd’hui on devrait dire « au revoir ».

Sky : Et rends-moi mes données.

Tariq Krim : Efface mes données et donne-moi mes données. Mais cet acte, cette action qui est assez simple, on a l’impression d’avoir perdu. Quand quelqu’un part on a l’impression d’avoir perdu. Il faut gagner, il faut prendre le maximum à l’utilisateur.
Ça c’est la quatrième chose et ces quatre choses ce sont des conseils de design, mais je me dis que les applications, par exemple des applications comme DuckDuckGo, ce qu’on fait aujourd’hui : j’ai une petite plateforme qui est plutôt un side project, qui s’appelle Polite26. Il n’y a plus de trackeurs, c’est la plateforme telle qu’on voudrait la voir : tu as accès tes données, tu fais ton truc, ça coûte 5 euros, ça pourrait être gratuit, mais ce n’est pas le modèle. Et si tu veux partir, tu cliques, on efface tes données. Ça devrait être le modèle standard, mais ça ne l’est pas parce qu’aujourd’hui on considère que le modèle de la monétisation, du behaviouring est plus rentable parce que ce modèle est un modèle qui permet de prendre très vite à une personne, alors que l’Internet est là pour for ever.

Sky : Bernard.

Bernard Benhamou : La-dessus, sur ça, on ne peut qu’être d’accord. Je ne vais pas revenir sur le débat sur l’apparente gratuité de l’Internet qui effectivement s’est faite au détriment des utilisateurs.

Sky : Si, on aimerait bien que tu y reviennes.

Bernard Benhamou : En gros, il y a eu une période où les gens se sont dit « est-ce qu’on peut installer ce qu’on appelle maintenant un paywall, c’est-à-dire faire payer les gens pour accéder à des contenus » et le choix instinctif de tout être normal en situation d’avoir à choisir c’est effectivement de ne pas payer. Le problème c’est qu’en ne payant pas on a laissé progressivement se créer ces mégas, ces gigas bases de données, de profilage et surtout donné lieu à un business [de la gestion des données personnelles via les data brokers, Note de l'intervenant] qui est totalement opaque. Les activités de ces data brokers sont évidemment contraires à la loi européenne, au Règlement sur la protection des données, mais on n’a pas voulu analyser comme tel. Ainsi, au lendemain de l’affaire Cambridge Analytica, Mark Zuckerberg lui-même, interrogé par la très remarquable Kathy Castor, la représentante de la Floride – je vous invite tous à regarder cette vidéo, c’est un moment d’anthologie dans la maîtrise politique du sujet comme rarement on a pu le voir – eh bien Mark Zuckerberg a été obligé de dire « oui, nous allons cesser toute forme de relation avec les data brokers » parce qu’effectivement le risque de dissémination des données était devenu beaucoup trop grand.

Sky : Il transpirait ce jour-là, il était rouge.

Bernard Benhamou : Il transpirait. On voyait surtout que c’était une des pires journées de sa vie et cela se sentait. C’était une audition non pas au Sénat mais à la Chambre des représentants. Remarquable !

Tariq Krim : Alexa a pris quand même 5 ou 7 % après.

Bernard Benhamou : Voilà ! Le problème c’est que tant qu’on ne s’attaque pas au cœur, c’est-à-dire au modèle économique de ces sociétés, tant que nous restons inertes en nous lamentant sur notre virginité perdue, il ne se passe rien ! Il faut dire à un moment donné, comme l’ont dit des parlementaires dans de nombreux pays, pas uniquement en Europe, il y a un moment où ce type de comportement industriel devient [et doit être déclaré, Note de l'intervenant] toxique.
On parlait tout à l’heure des contenus radicaux et de Zeynep Tufekci, la sociologue qui parlait de la radicalisation algorithmique. Google n’est évidemment pas complice du djihadisme et des contenus les plus extrêmes qui peuvent, parfois à son insu, être présents sur sa plateforme, mais il y a une forme de convergence d’intérêts toxiques. Ce que démontre justement l’ouvrage de Tufekci c’est qu’en gros, plus vous restez longtemps, plus ça rapporte d’argent par définition, à une plateforme qui vit sur la publicité. Donc s’ils remarquent que des contenus extrêmes font que les gens restent « collés », deviennent addicts, par définition, leur algorithme aura tendance à privilégier ces contenus [dans les recommandations suivantes, Note de l'intervenant].
Tout à l’heure Tariq parlait d’Eric Schmidt l’ancien patron de Google qui écrivait il y a quelques années, en gros, que les sociétés comme la sienne avaient vocation à remplacer les États, en disant que les États sont devenus lourds, lents, incompétents, « globalement nous aurons vocation à les remplacer ». Les gens au sein des appareils d’État qui entendaient ça à l’époque souriaient. Aujourd’hui ils ne sourient plus !

Tariq Krim : Maintenant ils sont chez Google ou Facebook. L’un des cocréateurs du Patriot Act est maintenant chez Facebook !

Bernard Benhamou : Par définition, on voit bien qu’il n’est plus possible, comme par le passé, d’envisager de façon neutre le paysage industriel dans ces domaines. Si on ne comprend pas que ces sociétés sont devenues trop puissantes pour ne pas répondre à des impératifs politiques, c’est-à-dire en clair, je dirais à des impératifs démocratiques.
Regardez ce qui s’est passé à Toronto. Toronto c’est un bon exemple. Vous avez une filiale de Google à Toronto, qui s’appelait Sidewalk Labs, qui a voulu mettre en place la ville intelligente dans un des quartiers de Toronto. Ce n’est pas compliqué, ça ressemblait exactement au crédit social chinois. Quand vous regardez dans le détail, il s'agissait de systèmes de prime aux comportements vertueux et, au contraire, de sanctions pour des comportements qui ne seraient pas vertueux au sens où Google l’entendrait. Au bout d’un moment les citoyens de Toronto ont dit « nous n’avons pas voté pour le patron de Google, ce n’est pas à lui de diriger nos vies ».
Ce qui était vrai pour ce quartier de Toronto doit être vrai, je dirais au minimum pour l’Union européenne voire plus, c’est-à-dire que nous n’avons pas à laisser les sociétés qui ne répondent pas à l’intérêt général se prétendre garantes de ce même intérêt général Vous vous souvenez du slogan de Google don't be evil, « ne faites pas de mal ». À l’heure qu’il est on peut se poser sérieusement la question de savoir tout le mal qu’ont pu faire ces sociétés, Facebook la première, je dirais à quasi égalité avec Google. On ne peut pas laisser ça et je pense que là où nous nous rejoignons avec nos angles de vue différents sur la question, avec nos expériences de vie, c’est qu’à un moment donné ces questions deviennent hautement politiques.
Je citais tout à l’heure Larry Lessig qui a créé cette phrase devenue célèbre Code is Law.

Sky : Qui est un monstre, d’ailleurs.

Bernard Benhamou : C’est une personne que j’ai eu grand plaisir à faire connaître en France et en Europe. Ce n’est pas compliqué. La phrase suivante, lors d’un débat que l’on avait eu avec lui à Science Po à l’époque, c’était Architecture is Politics c’est-à-dire que l’architecture du code, un peu comme l’avait dit Eric Raymond dans son ouvrage La Cathédrale et le Bazar, que le code devient porteur de valeurs politiques.

Sky : Si on n’audite pas le code on est coincé.

Bernard Benhamou : Exactement. Ça c’est le propos d’un autre grand spécialiste de ces questions, Frank Pasquale, qui a écrit The Black Box Society, « La société boîte noire » : il nous fait auditer le code, il ne faut pas laisser les gens qui ont une vision purement économique. Tout à l’heure Tariq parlait des deux types d’algorithmes qui sont l’un censé augmenter l’interaction et l’autre censé la contrôler, on voit bien que la chose est totalement biaisée et que la main gauche qui va récupérer de la puissance marketing ne sera jamais handicapée par la main droite. C’est ce que montre Zuckerberg tous les jours dans son incapacité à réformer, je dirais, ne serait-ce que les propos de haine sur la plateforme, mais on pourrait le dire bien au-delà sur la publicité politique. Ce qu’a fait Jack Dorsey sur Twitter, Facebook s’y oppose avec la dernière des énergies, sauf à y être contraint. On a vu que même Unilever, même Coca-Cola, même les grandes marques américaines qui se sont coalisées, qui ont envisagé un boycott de la plateforme, n’arrivent pas à faire plier Facebook. Je précise, prenez vos carnets et vos crayons, je crois que c’est le 27 juillet qu’il y a la première audition de tous les patrons des GAFA par rapport à l’antitrust américain, on va effectivement voir où la chose mène. On se rend compte que même aux États-Unis la puissance cumulée, la puissance politique et économique cumulées de ces plateformes devient intolérable, ce qui avait mené en d’autres temps la fragmentation de sociétés comme AT&T à l’époque ou historiquement Exxon avec la Standard Oil.

Sky : Google a pris les devants avec Alphabet. Tariq.

Tariq Krim : J’avais deux petits points. Le premier c’est quand on dit qu’il faut réguler les algorithmes ou il faut les auditer, encore faut-il les comprendre !

Bernard Benhamou : Et ce n’est pas du tout évident !

Tariq Krim : J’ai une théorie sur ce que j’appelle les suprémacistes numériques, c’est une vision politique qui se traduit maintenant par ce que l’on appelle le néo-féodalisme, c’est la vision un peu à la mode dans la Silicon Valley, c’est de dire qu’on revient aux temps des seigneurs, le seigneur est tout puissant, il lève la dîme, mais il protège aussi, évidemment cela face à l’État-nation.
On revient au tout départ, à ce combat entre les gens qui voulaient la vision humaniste, augmenter les compétences humaines et les remplacer. Pour ces gens-là le monde est une équation mathématique qu’il faut optimiser. Quand on optimise la démocratie à la fin on arrive à un modèle dont on parlait tout à l’heure, soit ce qui a été fait à Toronto, soit ce qui se fait quotidiennement en Chine. Ça c’est un premier point.
Sur la question de casser les Big Techs, moi j’ai une vision un peu différente. Aujourd’hui, un, déjà je pense que ça ne va pas se faire parce que les États-Unis veulent conserver des puissances très importantes, mais surtout je crois que l’ensemble de ces sociétés se sont préparées à être cassées. Je donne un exemple tout bête : si demain Amazon Web Services est séparé d’Amazon, ça devient instantanément la dixième dans le top 10 des boîtes les plus profitables. Ce qui s’est passé pendant longtemps c’est que les profits qui étaient faits par Amazon Web Services – on l’oublie, mais Amazon Web Services est né du fait qu’Amazon avait des pics de connexion énormes pendant des moments très précis, Black Friday et autres, et que le reste du temps ils avaient de la puissance massive, donc ils ont décidé de la mettre à disposition des autres, notamment leur concurrent Netflix entre autres – donc pendant longtemps les profits d’Amazon, puisque c’est un web services, les gens payent pour transférer leur informatique sur le cloud donc c’est extrêmement profitable, servait à financer une chose chez Amazon : l’oxygène du e-commerce que sont les frais de livraison. On s’est retrouvé plusieurs fois avec des Black Fridays, les fameux jours où on solde, donc le jour de l’année où vous vendez le plus de produits, avec 90 % des frais de livraison qui sont offerts. Si Amazon les offre, tous les autres sont obligés de le faire et tous les autres tirent la langue. Ce qui passe maintenant avec Amazon c’est qu’ils ont une nouvelle entité qui fait de la publicité, qui est désormais numéro 3 derrière Facebook et Google aux États-Unis, qui a maintenant suffisamment d’argent pour alimenter cette stratégie d’Amazon, donc si on sépare Amazon Web Services elle va devenir une société très profitable.
Pour Facebook c’est un peu plus difficile, mais ils ont déjà commencé à réfléchir en interne à cette question de séparer les entités.
Pour Google, ce serait évident de séparer Android du moteur de recherche. Alphabet, d’une certaine manière, a été la façon de préparer ça.
La société qui est plutôt mal en point face à ça c’est Apple, c’est-à-dire que dans cinq ans, quand ils auront une entité de services qui gagnera suffisamment d’argent pour séparer le hardware, parce que Apple est avant tout une société de hardware.

Sky : Était.

Bernard Benhamou : Plus maintenant.

Tariq Krim : Était avant tout, ils commencent à l’être, d’ailleurs maintenant ils font des téléphones.

Bernard Benhamou : Les services constituent une part importante de leurs revenus aujourd'hui.

Tariq Krim : Ce qui est intéressant c’est qu’aujourd’hui ils font des téléphones pas chers, entrée de gamme, parce qu’ils vont passer dans le service. Le problème, ça c’est une chose sur laquelle la Commission européenne aurait dû travailler depuis des années, quand on vend un produit sur l’App Store, quand vous êtes une boîte et que vous faites 30 % de marge ce n’est pas mal, mais dans le monde d’Apple les 30 % vont à Apple et vous vous débrouillez avec le reste. Et on a laissé ça pendant dix ans, on a fêté les dix ans de l’App Store. Pareil avec Google. On a donc laissé quasiment un hold-up avec des bandits de grand chemin qui ont ponctionné cet argent. Apple est la société qui, à mon avis, dans cette idée où on séparerait, n’est pas encore prête ; dans cinq ans elle le sera, mais aujourd’hui elle ne l’est pas. Moi je ne crois pas que quiconque, aux États-Unis, osera toucher à ces sociétés. C’est dommage parce que le vrai sujet c’est qu’on devrait le faire non pas parce qu’on est anticapitalistes, mais parce qu’on est justement capitalistes et qu’il faut laisser de nouvelles sociétés émerger. Aujourd’hui c’est impossible, vous ne pouvez rien faire.

Bernard Benhamou : On pensait la même chose justement par rapport aux télécoms, et on avait un monopole sur les communications longue distance qui était tel qu’effectivement, à un moment donné, la question s’est posée. Je rappelle que les lois antitrust portent le nom d’antitrust aux États-Unis, Sherman Act pour les plus juristes d’entre vous, antitrust parce que la Standard Oil n’était pas une société, c’était un trust. En gros, ce que j’essaie de dire, c’est qu’aujourd’hui faire des lois antitrust spécifiques pour Google, pour Facebook est une chose possible. Est-ce qu’on le fera à horizon prévisible court ? Non. Il faut être très clair aujourd’hui la capacité d’étouffement de ces sociétés – tout à l’heure il était question d’oxygène par rapport à tel ou tel secteur d’activité – par rapport à leur écosystème est devenue telle que tout l’écosystème industriel se rend compte qu’il doit payer. Tout à l’heure on parlait d’une dîme, d’une taxe. En gros, pour exister aujourd’hui tant commercialement qu’en termes marketing, on doit payer la taxe à des grands acteurs qui, effectivement, vous permettent d’exister. [Ces sociétés peuvent se comporter en prédateur par rapport à la quasi-totalité des acteurs économiques, Note de l'intervenant].
Demandez à la presse, nous sommes tous consternés [de voir à quelle point elle est devenue dépendante de ces plateformes, Note de l'intervenant].

Sky : À la quoi ?

Bernard Benhamou : La presse, en particulier la presse locale qui a connu une décrue dramatique dans tous les pays occidentaux. À un moment donné, tous les acteurs par exemple de la presse magazine en France vous disent : « Si nous devions rentrer en conflit avec Google sur Google News ou avec Facebook, c’est 40 % de notre chiffre d’affaires qui s’en va, de notre trafic et de notre capacité de valorisation. » Donc, par définition, c’est évident que la chose est dangereuse, cela crée un rapport de féodalité. Rappelons pourquoi la loi antitrust a été créée, c’était pour éviter de se plier devant de nouveaux féodaux. Ceux qui l’avaient créée disaient : « Nous avons effectivement réussi à nous à sortir de l’emprise des griffes d’un roi ce n’est pas pour tomber aujourd’hui sous l’emprise de quelques barons industriels ». On est, je dirais, au début de la crise globale par rapport à ça. Est-ce qu’elle aboutira ? Si demain Elisabeth Warren devait être patronne du Département du Commerce ou, pire encore pour ces sociétés, du Département de la Justice, tous les paris seraient ouverts. Je dirais que l’hyper-concentration à laquelle on a assisté devient toxique globalement pour l’économie et y compris pour l’économie américaine.
Certes, je suis d’accord avec Tariq, le gouvernement américain souhaite conserver ses champions, mais est-ce que tous les autres accepteront durablement la taxe des 30 % pour les applications ou, effectivement, la taxe publicitaire sur l’ensemble de leurs activités ? Ça c’est beaucoup moins évident, y compris même à l’intérieur des États-Unis.

Sky : Tariq, tu veux rajouter juste un mot.

Tariq Krim : Juste un mot.
Je pense qu’on a un problème de timing. Tout ça était vrai avant la crise du covid et on se trouve dans une situation qui est un peu compliquée. Le covid a accéléré la transition numérique de cinq ans, dix ans peut-être, il y a des choses qu’on ne faisait pas avant, qu’on fait. Et Biden, s’il est élu, aura un autre problème, c’est qu’il va avoir 40 millions de chômeurs, il est dans un État qui est en déliquescence totale, donc il aura d’autres problèmes et je pense que pour les quatre ans, voire possiblement les huit ans qui viennent, ces gens n’auront pas la capacité de faire tout ce qui doit être fait et qui, je pense, aurait dû être fait. Ça pose la question de ce que l’Europe peut faire, ce que l’Europe veut faire.

Bernard Benhamou : Doit faire.

Tariq Krim : Ce que l’Europe devrait faire, doit faire aussi, et là c’est vrai que là on a un problème de lisibilité parce que ces questions ne sont pas…

Bernard Benhamou : Sans être particulièrement sévère par rapport à nos voisins Britanniques, le départ des Britanniques de l’Union, s’il devait se réaliser.

Sky : Double peine.

Bernard Benhamou : Leur départ serait peut-être une chance sur les questions de régulation vis-à-vis des GAFAM. On parlait tout à l’heure de Small Business Act en Europe, ceux qui ont été particulièrement hostiles par rapport à cette notion ce sont justement les Britanniques. Effectivement sur la régulation du marché, les actions antitrust, je pense qu’on pourrait aller plus vite désormais. Je crois qu’il y a une opportunité par rapport à cela qui méritera d’être jouée. En tant qu'ancien négociateur européen qui a eu l’occasion de beaucoup œuvrer et de voir les difficultés de se coordonner à 27 à l’époque, sincèrement je crois qu’on est face à un changement et l’Europe se rend compte que la naïveté qui a été la sienne par rapport aux deux blocs, chinois et américain, devient hautement toxique [pour sa survie même, Note de l'intervenant].

Sky : Est-ce que c’était de la naïveté ou non, parce que ça me partait quand même un peu…

Bernard Benhamou : Qu’il y a eu des gens…

Sky : Des lobbyistes… Avant, juste avant.

Bernard Benhamou : Je me souviens des propos de Michel Rocard, il y a quelques années, qui disait : « Je n’ai vu un lobbying aussi violent que sur les questions de data à Bruxelles ». Donc qu’il y ait, sur les sujets que nous évoquons, des tentations d’influence, c’est évident. Mais parmi ceux qui ne sont pas manipulés, qu’il y ait effectivement une forme de passivité, une forme de résignation sur le mode « de toute manière on ne peut pas faire sans eux ». Quelqu’un a d’ailleurs fait récemment, je crois que c’est dans le Journal du Net, une typologie des acteurs du numérique qui étaient pour ou contre la souveraineté numérique et on voyait les opportunistes, les militants, j’étais bien sûr du côté militant ; on voyait effectivement les types de discours que ça génère. Il y a cinq ans, quand nous avons créé l’Institut de la souveraineté numérique, on nous disait « mais qu’est-ce que c’est la souveraineté numérique ? » C’était un think tank privé – je sortais de mes fonctions de délégué interministériel, ce n’était pas du tout une structure publique, on s’est regroupé à quelques-uns, Tariq nous a rejoints dans notre conseil scientifique – pour réfléchir à ces questions, sur les questions de relations internationales par rapport au numérique et par rapport en particulier au numérique européen. Il se trouve qu’aujourd’hui tout le monde parle de souveraineté numérique, pas simplement Thinkerview, tout le monde parle de souveraineté numérique.

Sky : Nous, ça fait longtemps qu’on en parle. Depuis des années !

Bernard Benhamou : Je sais, je sais bien ! Je sais que c’est un sujet que vous avez abordé avec de nombreuses personnalités.
Aujourd’hui la question c’est comment se détermine-t-on par rapport à ce sujet. Si on se détermine mollement c’est que quelque part on était contre. Aujourd’hui, seules des solutions non pas radicales, mais je dirais politiquement fortes doivent être envisagées.

Sky : Solutions politiques dans la même phrase.

Bernard Benhamou : Malheureusement, il y a des gens encore pour y croire.

Sky : Il faut rajouter courage et là tu as le tiercé gagnant : courage, politique, solutions !

Bernard Benhamou : Je sens un côté désabusé !

Sky : Non réaliste, pragmatique.

Bernard Benhamou : Pragmatique. Tout à l’heure Tariq parlait de la crise covid. La crise covid a été un accélérateur sur tous les plans, peut être même sera-t-elle l’accélérateur du déclin, voire de l’expulsion du champ politique d’un certain Donald Trump, si on en croit les sondages, ce que nous verrons encore dans quelque temps.

Sky : Ou pas !

Bernard Benhamou : À voir. En tout cas, je dirais que ce que l’on voit politiquement, globalement l’inaction sera considérée comme une faute politique dans ce domaine dans pas très longtemps, là où auparavant elle était considérée comme anodine. J’ai connu des ministres à qui on disait « ne vous affichez surtout pas sur les technologies, vous allez y perdre en crédibilité », je ne citerai pas le nom des ministres, mais leur cabinet leur disait ça.

Sky : Le nom du chef de cabinet ?

Bernard Benhamou : Je ne le dirai pas ! Aujourd’hui il est question de quoi ? De taxe GAFA avec toutes les difficultés qu’il y aura à la mettre en œuvre évidemment, mais tout d’un coup on reparle de champions européens. Le récent discours de politique générale c’était 40 milliards pour l’industrie, on verra ce qu’il en sera fait.

Sky : Comment s’appelait le député qui avait fait un rapport sur les serveurs chinois, que c’était très grave, mais il ne parlait pas du tout des serveurs américains. Vous ne vous rappelez pas de ce mec-là ? Passons.
Question internet : j’ai peut-être loupé des morceaux mais en parlant d’infrastructure quid de OVH ? C’est français non ?

Bernard Benhamou : Oui.

Sky : Ils sont costauds ?

Bernard Benhamou : Oui. Je vais répondre là-dessus et je pense que Tariq pourrait conclure. Lorsque notre secrétaire d’État chargé du Numérique disait devant la représentation nationale.

Sky : Mounir Majhoubi ? Je n’ai pas compris.

Bernard Benhamou : Cédric O, oui il y a quelques semaines, disait : « Nous avons construit le Health Data Hub, il n’y avait pas de solution européenne, voire française, pour le faire. »

Sky : Et je veux travailler chez Microsoft le mois prochain !

Bernard Benhamou : À chacun de conclure !
Fondamentalement d’abord un, quand on voit un projet d’une importance stratégique telle et que l’on se dit « on ne peut le confier qu’à un Américain », comme le disait un certain président de la République française il y a quelques années, ma conclusion aurait été qu'il est urgent d’attendre. Était-il nécessaire de commencer [de risquer une fuite massive de ces données aux Etats-Unis, Note de l'intervenant] ? Je précise que c’était bien avant le covid pour ceux qui se poseraient la question, on parle maintenant du Health Data Hub, en période covid, mais il a été décidé il y a plus d’un an. Était-il prudent d’établir la maquette, le POC comme on dit dans ces domaines, le proof of concept, avec Microsoft au point que Microsoft, bien sûr, rajoute des briques de fonctionnalité qui font qu’au final ils sont quasiment les seuls à pouvoir répondre ? La réponse est non.
Dans une tribune sur ce sujet au Point, j’ai parlé d'une forme de paresse intellectuelle. Pour avoir dirigé des projets d’administration centrale, par définition on pouvait faire autrement. Les responsables de ce projet ont été au plus rapide et malheureusement sans se rendre compte des effets de bord, des risques que ça faisait courir aux données des Français et en particulier à leurs données les plus sensibles et stratégiques que sont les données de santé.

Sky : Là je vais prendre le point de vue de Gilles Babinet : il y a les données opt-in et il y a les données opt-out . Tariq, pourquoi tu te marres ?

Tariq Krim : J’avais fait un rapport qui a servi de cale pour armoire à l’époque de Fleur Pellerin, justement sur ces questions, et j’avais une réponse assez simple. Dès qu’on met les gens qui savent de quoi ils parlent, des gens qui sont techniques, dans les conversations, soudain les choses se passent mieux. Je me rappellerai toujours un de mes anciens associés qui avait monté une Web Agency, un de ses commerciaux avait vendu des pages web rondes. Et il a dû lui expliquer que ce n’était pas possible. En fait on a un vrai problème c’est qu’on a des talents exceptionnels.

Sky : Et on a beaucoup de culture de fumée.

Tariq Krim : Vous parliez d’OVH. OVH ils sont assez imbattables pour la machine nue, il faut tout faire soi-même ; il faut l’installer, mettre l’OS, les plateformes. On a des gens qu’on appelle des DevOps, des administrateurs systèmes, des gens dont le métier c’est de préparer, de déployer, de s’organiser. Dans une ancienne vie j’avais travaillé chez Infonie pour faire de l’Internet, j’avais un jeune Lyonnais – enfin jeune, il était un plus âgé que moi, il était quand même jeune à l’époque – maintenant c’est lui qui déploie pour tout Google, il s’appelle Éric Dumazet, un type exceptionnel qui patchait Linux en assembleur. Vraiment un type ! Des gens comme lui il n’y en pas beaucoup, mais des gens de très bon niveau, des DevOps, il y en a plein. Ce sont des gens capables, vous leur dites on va acheter, on va mettre 50 machines. Ce qui est fascinant c’est qu’une partie des outils qu’on utilise dans le Health Data Hub, mais aussi dans l’intelligence artificielle, notamment des technos comme Scikit-learn ou Jupyter Notebooks ont été développés en France. Le rapport de Cédric Villani sur l’IA, qui est fait avec le directeur de thèse, ne mentionne même pas les technos.
Après il y a un problème en ce moment avec le logiciel libre et les grandes plateformes parce que les grandes plateformes utilisent des logiciels libres et ne commitent pas les sources parce que maintenant, en fait, elles ne font pas de distribution, mais on pourrait reprendre. D’ailleurs, suite à l’histoire de Cédric O qui m’avait choqué : c’est comme si un ministre de l’Agriculture arrive et dit « le bœuf argentin c’est quand même meilleur que le bœuf français ».

Bernard Benhamou : On imagine qu'il ne resterait pas très longtemps ministre de l'agriculture !

Tariq Krim : Voilà ! Donc ça m’avait choqué. Ce qui est fascinant dans cette histoire, j’ai discuté en toute transparence avec Octave Klaba, le fondateur de d’OVH, parce que je ne comprenais pas. Il m’a dit : « Nous, on n’a jamais eu de véritable cahier des charges ». En tout cas ce que je sais des ingénieurs français que j’ai vus dans toutes les boîtes, je pense à OVH, mais il y en a plein d’autres, Outscale, quand on leur dit « voilà ce qu’on voudrait avoir », eh bien on va le construire, on construit. Quand on développe une boîte, puisque là on a un peu joué à la startup, on invente quelque chose de nouveau. C’est vrai que la startup nation a plutôt eu comme directive de copier les concepts américains et de les franciser comme on le faisait à l’époque avec les gens de la chanson ; la chanson française c’était la version américaine du rock et de Elvis Presley, on a fait un peu la même chose avec les startups. Mais on construit et on dit quelle va être l’architecture, quels sont les outils qu’on va utiliser et pour ça il faut amener dans la conversation des gens qui, en général, dans les administrations, sont au troisième sous-sol, des gens qu’on méprise.

Sky : Qu’on sous-paye.

Tariq Krim : Qu’on sous-paye. Ce qui m’a toujours fasciné c’est que les gens sont bons !

Sky : Ceux qui restent !

Tariq Krim : L’ancien directeur système du ministère de l’Intérieur ou de Bercy, je crois qu’il est allé après à General Motors, un type brillantissime, il était en plus respecté. Il y a des choses qui ont été faites à la Gendarmerie nationale avec le logiciel libre end to end, donc les gens sont là. Comment se fait-il que ces gens ne sont jamais dans les conversations ?

Sky : On a tous la réponse autour de cette table. On le sait. Dites-le ! Bernard, je te vois sourire avec un petit sourire en coin. On le sait tous !

Bernard Benhamou : On va le dire autrement. Pour avoir enseigné dans certaines grandes écoles dans ces domaines, je vous raconte une anecdote. J’ai créé les premiers enseignements à l’ENA sur Internet et administration électronique, 1998.

Sky : C’est loupé quand même !

Bernard Benhamou : C’était un one-shot. Ce n’est pas compliqué. À l’époque je leur disais « bientôt vous serez jugés, notés, sur ce que vous faites sur Internet ». Éclats de rire dans la salle ! Maintenant personne ne rirait !
Pour reprendre le propos, il est évident que les technologies ont pendant très longtemps, pour des littéraires, des juristes, que je connais bien, j’en ai beaucoup fréquenté, les technologies c’était du domaine du « contingent », c’était des choses secondaires. La décision politique c’était autre chose que de s’occuper de machines, de technologies, etc. Eh bien non ! Quand on voit des juristes d’un tel talent, puisque tout à l’heure on parlait de Lessig, devenir à ce point compétent alors que, je le précise, il n’a, à aucun moment, étudié les technologies de façon universitaire, c’est vraiment un autodidacte complet des technologies, c’était un juriste constitutionnaliste et un philosophe, il a aussi une formation de philosophe. On a eu des gens qui ont été curieux et qui n’ont pas méprisé ces sujets.
Notre problème c’est que trop souvent on a dit que d’un côté il y a l’ingénieur qui va s’occuper de faire en sorte que le courant fonctionne dans la maison et, de l’autre côté, il y a le politique qui va s’occuper des textes juridiques, des textes législatifs et effectivement de la régulation de tout ça. Je dirais, alors même qu’on avait parmi les meilleurs ingénieurs du monde – tout à l’heure on parlait des grandes époques des grandes décisions de politique industrielle française –, on avait des ingénieurs de talent avec des politiques qui les comprenaient et qui savaient leur donner les moyens qu’il fallait. Je rappellerai que les projets atomiques et autres sont nés avant même le général De Gaulle, déjà à la quatrième République, avant ce que l’on a pensé être uniquement la période clef ou charnière, il y avait déjà une volonté dans ces domaines. Aujourd’hui, malgré toutes les suspicions qu’on peut avoir, je dirais qu’il y a une forme de vision résignée de ce futur en disant « de toute manière on a loupé la marche » et je l’ai souvent entendu à Bercy, des gens à Bercy me dire « sur Internet c’est trop tard ». Je dirais que les scandales à répétition auxquels on a assisté, Snowden, Cambridge Analytica et consorts, nous donnent, entre guillemets, « une possibilité » de revenir dans le jeu. Soit nous saisissons cette possibilité, soit nous laissons la chose dériver comme elle a dérivé ces 15 ou 20 dernières années.

Sky : Tomber dans le misérabilisme de l’impuissance. Question d’Internet : doit-on se méfier de la 5G et de l’arrivée massive de Huawei dans le monde, notamment en Europe ?

Tariq Krim : Sur la 5G, on pourrait dire beaucoup de choses. Je trouve que l’Arcep [Autorité de régulation des communications électroniques, des postes et de la distribution de la presse] a été assez mauvaise sur la gestion de la partie onde et 5G. Je ne vais pas parler de ça, mais il y a plusieurs choses sur la 5G.
La première c’est qu’on change un peu de paradigme. Jusqu’à maintenant on avait des technos qui étaient du haut débit et pour beaucoup de gens la 5G c’est encore plus de débit. D’ailleurs, quand on écoute le nouveau maire de Grenoble expliquer que la 5G, ça sert, si j’ai bien compris à télécharger…

Sky : À regarder du porno dans l’ascenseur.

Tariq Krim : Dans l’ascenseur. Il a dû remarquer que la 3G ou la 4G ne marchaient pas très bien dans les ascenseurs.

Sky : Il y a moins de caméras dans les ascenseurs !

Tariq Krim : D’une certaine manière je comprends ce qu’il dit et si j’ai juste un instant pour l’expliquer, je pense qu’une grande partie des gens a l’impression que le monde va trop vite. On est dans une forme de barrière d’abstraction, c’est-à-dire que le monde est devenu abstrait, on ne comprend plus rien.
J’ai pensé pendant longtemps que l’IA – IA c’est le mot clef pour dire licenciement, on va mettre de l’IA dans une société, ça veut dire qu’on va remplacer les gens – allait être le mauvais élève, on allait être contre l’IA. Mais, à priori, le docteur Laurent Alexandre a fait son travail et des gens continuent à penser que c’est une force de bien et finalement c’est la 5G qui a pris cette idée que le monde va trop vite.
Derrière la 5G il y a un problème c’est qu’on a des technos, par exemple une boîte comme Amarisoft qui a été faite par Fabrice Bellard – quand j’ai fait la mission, avec Fleur Pellerin, je me suis dit il faut que je donne au moins quelques noms et je me suis dit je vais en donner une centaine, après je me suis fait un peu engueuler parce que « tu aurais pu mettre untel », mais j’ai mis 100 personnes qui ont participé à des choses vraiment importantes – et ce type, Bellard, si on peut regarder de la vidéo dans Chrome c’est grâce à lui, il a fait QEMU, et il est en train de révolutionner : en fait on peut prendre un PC à 400 euros, on le transforme en borne 4G, 5G, donc ça ne coûte rien. Lui a carrément outsmarté Huawei.
Une des raisons pour lesquelles on achète Huawei c’est que ça ne coûte pas cher. Il y a aussi le fait qu’ils ont été rapides, ils ont commencé rapidement à la déployer en Chine donc ça a été un peu plus vite et nous on a un sujet c’est qu’on n’est même pas sûrs que les opérateurs ont l’argent parce qu’on ne sait même pas combien vont coûter les licences, donc on est vraiment en retard. Il y a évidemment un problème de souveraineté puisque là on est carrément dans le cœur de réseaux des boîtes noires. On a déjà aussi des boîtes noires, on est censé depuis la loi sur le renseignement avoir des boîtes noires, mais elles sont censées être de fabrication française si j’ai bien compris. Là on passe sur quelque chose de plus inquiétant.

Sky : On aura des boîtes noires pilotées de la Chine.

Tariq Krim : À une époque où la technologie était importante, notamment chez France Télécom — j’ai passé ma jeunesse à me ficher d’eux parce qu’on faisait du fracking, on s’amusait à détourner les lignes de téléphone —, France Télécom était obsédée par la qualité de service. À une époque on n’était pas forcément d’accord avec l’architecture très centralisatrice du Minitel, numériste, mais c’était la qualité de service, c’est-à-dire que le truc marchait.
Maintenant on est passé à un système où on est au milieu du marais, on a deux barres, ça ne marche pas. Quand vous êtes au Japon vous êtes dans un club, vous êtes à moins cinq et vous avez cinq barres ; c’est pareil en Allemagne. Donc on a déjà perdu cette qualité de service.
Ce qui m’inquiète c’est que les réseaux c’est devenu un peu Frankenstein : on met un peu de Huawei, on met un peu d’Ericsson, on ne sait plus du tout comment construire les réseaux, parce que, encore une fois, dans les grands groupes – je mets de côté Xavier Niel qui connaît bien le sujet, donc je le mets à part – on n’a plus véritablement encore de techniciens dans les comex, maintenant vous n’avez que des marketeurs ou des politiciens professionnels, donc quand il s’agit de réfléchir à comment on va architecturer et ça il faut le faire dix ans avant d’implémenter ! C’est vrai aussi chez Renault. BMW a un système de voiture automatique, Renault va passer chez Google ! Ça veut dire que dix ans avant il y a des gens qui auraient dû réfléchir à ça, qui auraient dû aller voir l’écosystème, voir ce qu’on peut faire. Il ne faut pas oublier que Renault et Peugeot ont inventé la CAO [Conception assistée par ordinateur], en fait la 3D telle qu’elle existe ; les courbes de Bézier, toute la base de la CAO a été inventée chez Peugeot et aussi chez Renault. Je parle des années 60, on avait de gens qui étaient visionnaires, et maintenant on a des gens qui n’ont plus… On a effectivement ce problème.
Juste pour terminer sur la 5G, le problème de la 5G c’est qu’on pourrait faire des technos beaucoup moins chères et on pourrait aussi régler le problème des zones blanches en l’installant un peu partout, mais pour ça il faut revenir sur un point important qui est la décentralisation. Si on laissait les gens reprendre le contrôle du réseau on aurait du réseau partout. Le fait qu’on laisse maintenant un petit nombre d’opérateurs qui ont de moins d’argent, qui savent de moins en moins comment ça fonctionne, je mets encore de côté Xavier Niel, pose un problème.
En France on a une situation un peu unique, c’est-à-dire que partout il y aura des expérimentations 5G et en France, pour l’instant on est très en retard.

Sky : Bernard, ça mesh ?

Bernard Benhamou : Qu’il y ait un risque par rapport à Huawei, sans rentrer dans des scénarios conspirationnistes, comme on dit, c’est évident.
De l’autre côté, je rappellerai la déclaration d’une certain William Barr, le ministre de la Justice de Trump, qui a dit : « Nous ne faisons pas le poids par rapport à ces technologies 5G, nous avons vocation à prendre des participations majoritaires dans les deux sociétés européennes importantes sur le sujet c’est-à-dire Nokia et Ericsson ». En gros, nous apparaissons non seulement comme le marché mais comme la proie que l’on vient dépecer. Savoir que d’un côté on a le risque chinois et que, de l’autre côté, notre allié historique ne nous voit que comme une proie qu’il doit dépecer !

Sky : Attends, l’allié historique ? Je n’ai pas compris. Les débouchés de marché historique, c’est ça ?

Bernard Benhamou : Peut-être. Peut-être aussi des jeunes gens qui meurent sur les plages normandes.

Sky : 300 000, c’est ça ?

Bernard Benhamou : Je ne saurais dire ! Obama avait eu l’occasion de dire « on est venu deux fois face à des périls imminents pour vous Français et Européens » et quelqu’un avait répondu « oui, mais on vous avait aidé avec un certain La Fayette à acquérir votre liberté face au roi d’Angleterre ».

Sky : Ils l’oublient souvent. Si on n’avait pas été là, ils seraient encore colonie anglaise.

Bernard Benhamou : Anglaise, oui sans La Fayette.

Sky : Je vous coupe : que dire de la visite de Larry Fink, patron de BlackRock, à l’Élysée ?

Tariq Krim : Rien de particulier.

Bernard Benhamou : Je n’ai pas d’infos. Mais de fait ! C’est intéressant d’un point de vue logiciel. BlackRock fait partie de ces sociétés qui ont développé un savoir-faire sur l’évaluation du risque qui parfois a pu être utilisé y compris même au sein des gouvernements. C’est vrai qu’on a, je dirais, une interpénétration. On a beaucoup parlé pour l’administration d’Obama de Google, d’une Love Story entre Obama et Google. Là, on voit effectivement qu’il y a une porosité, y compris en période de risque, qui est une chose qui peut poser problème.

Sky : Vous chiffrez avec quoi ?

Bernard Benhamou : Chiffrer ? Avec PGP27 [Pretty Good Privacy].

Tariq Krim : Je ne sais pas. Pour les communications ? Je suis embêté parce que j’aimais beaucoup Signal28. Déjà parce que les deux cofondateurs de WhatsApp sont des trumpiens à fond. Je suis un peu gêné. Sinon rappeler que de toute façon, quand quelqu’un owne le téléphone, quel que soit le logiciel qu’on utilise, on est coincé !

Bernard Benhamou : On est coincé ! Il y a un vrai problème. Je ne voudrais pas revenir systématiquement sur l’antitrust, mais qu’il y ait deux plateformes qui trustent à elles seules 95/98 % du marché, donc iOS et Android, et que ces deux plateformes soient américaines, c’est en soi effectivement une exposition au risque maximum.

Sky : On arrive à la fin de notre interview. Vous allez nous conseiller trois livres chacun.
Bernard.

Bernard Benhamou : Je vais revenir sur Shoshana Zuboff, Le capitalisme de surveillance, remarquable. Extraordinaire. Je précise que normalement en octobre il devrait être traduit en français, c’est un gros pavé mais qui mérite vraiment d'y consacrer du temps.
Puisque j’ai cité Lessig, tout Lessig mérite d’être cité. Là encore, un livre que j’ai souhaité faire traduire et à l’époque tous les éditeurs de la place de Paris m’ont dit « magnifique livre, mais vous n’aurez que 300 lecteurs maximum si on le fait traduire », c’est son premier, c’est-à-dire Code et autres lois du cyberespace qui reste d’actualité. Il a même fait une version élaborée en collectif, qui s’appelle Code 2.0, qui est assez remarquable.
Je vous ai parlé de The Black Box Society de Frank Pasquale, qui est vraiment utile.
Mariana Mazzucato L’État entrepreneur, The Entrepreneurial State. Je n’ose revenir sur la phrase d’un certain Georges Bush Junior qui avait dit « les Français n’ont pas de mot pour entrepreneur », sachant que c’est un mot d’origine française, donc que l’État doive être entrepreneur est une chose qu’elle nous rappelle très utilement.

Sky : Tariq.

Tariq Krim : J’allais aussi dire The Black Box Society, mais je vais en proposer d’autres.
En ce moment je suis fasciné par les uchronies, j’ai toujours aimé cette idée qu’avait Fatherland.

Sky : Il faut que tu expliques « uchronie ».

Tariq Krim : L’uchronie, alternative timeline in timeline alternative.

Bernard Benhamou : What if? Qu’est-ce que si ce serait passé si… les États-Unis avaient été colonisés pas les nazis.

Tariq Krim : J’ai été par ce film qui a été inspiré du livre Fatherland où on imagine Hitler gagner la guerre, donc rencontrer…

Bernard Benhamou : … envahir la côte Est.

Tariq Krim : Non, ça c’est une autre uchronie, Le maître du haut château, mais c’était rencontrer Kennedy à Berlin, le film est absolument génial, le livre est génial.

Sky : Des nazis sur la lune c’est lequel ?

Bernard Benhamou : Bonne question.

Tariq Krim : J’ai découvert un livre qui s’appelle Swastika Night, qui a été longtemps écrit sous un pseudonyme, le nom de la femme qui l’a écrit ne me revient pas [Katharine Burdekin], mais il a été écrit en 1937. Elle imagine comment l’Allemagne nazie dominait le monde 500 ans dans le futur, donc elle avait déjà imaginé la Deuxième Guerre mondiale. C’est un bouquin fascinant.
J’aime bien aussi Le capitalisme de surveillance, mais je vais choisir un autre livre d’une personne que j’aime beaucoup qui s’appelle Sherry Turkle, qui est un peu une de mes maîtres à penser sur la question de la vision du numérique et de la sociologie qui s’appelle Alone Together, où elle a un peu décrit cette vision du numérique.
Après, pour tous ceux qui aiment le hack et qui ont envie de lire le bouquin de référence, je le dis maintenant parce que j’avais l’impression que tout le monde l’avait lu, Terminal Compromise de Winn Schwartau qui explique, en fait, le concept de Pearl Harbor électronique et qui a été un des pionniers. Il y a aussi Le nid de coucou de Clifford Stoll qu’il faut relire, Clifford Stoll qui, suite à une erreur de comptabilité de un dollar, a fait tout ce travail de découvrir des hackers allemands qui étaient plus ou moins affiliés au Chaos Computer Club, qui vendaient des secrets aux Russes et c’est écrit comme un roman incroyable. Pour les gens qui veulent voir un peu ce qu’était l’Internet dans les années 80, avant même l’Internet officiel, c’était encore l’Arpanet, c’est fantastique, il n’y a pas besoin d’être très bon techniquement. Ce type est brillantissime, un peu dingo et il nous avait prévenus, tout ce dont on parle. Il a écrit un deuxième livre beaucoup plus sombre sur l’avenir du numérique et qui correspond un peu aux thèmes qu’on a abordés aujourd’hui.

Sky : Vous connaissez le travail d’Alain Damasio.

Tariq Krim : Oui.

Bernard Benhamou : Oui, bien sûr.

Sky : Un conseil pour les jeunes générations, quelque chose d’impérissable qui va rester sur le Net ?

Tariq Krim : Je n’aime pas l’idée d’apprendre à coder parce que c’est toujours le truc, le poncif, mais apprendre à être curieux.

Bernard Benhamou : Apprendre à maîtriser les sources d’information. La veille devient une des formations, un peu comme la maintenance informatique est un métier qu’on doit tous apprendre douloureusement. Tous ! On y passe un temps ! Dans notre vie on dit qu’on passe un tiers du temps à s’occuper d’un ordinateur sans être productif sur un ordinateur ce qui est déjà énorme.
Je dirais qu’apprendre à maîtriser les sources d’information, les mettre en perspective. Je ne parle pas de fact checking, ce n’est pas le terme, mais comprendre comment on nourrit sa réflexion par rapport à un sujet. Étendre et croiser les sources d’information, c’est peut-être la nouvelle nécessité humaine des temps qui viennent.

Tariq Krim : J’ai l’inverse : c’est apprendre à s’exprimer clairement. J’ai eu la chance une fois de me retrouver pendant une demi-heure seul avec Steve Jobs, il y a des années. Il était au down de sa carrière quand il faisait NeXT et ce qui m’avait fasciné, on m’avait dit « c’est un tchatcheur, il ne connaît rien à la technologie ». Tous les trucs qu’il avait vus étaient bons – le wifi, l’USB – tout ça ce sont des décisions, donc il maîtrisait parfaitement la technologie, mais il avait une capacité d’éloquence, de réduire ses idées, simples, qui était fascinante. Encore aujourd’hui, il y a plein de gens qui veulent se prendre pour Steve Jobs, ils imitent le style, la simplicité, les powerpoints, mais sa vraie force c’est qu’il était capable de réduire l’essence de qu’il était, de ce qu’il voulait.
Je pense que chacun a le droit de penser ce qu’il veut, mais il doit apprendre à l’exprimer. C’est un travail.

Sky : À synthétiser. À résumer la quintescence de ses idées.

Tariq Krim : Exactement.

Bernard Benhamou : Absolument.

Tariq Krim : Et les défendre.

Bernard Benhamou : Et les défendre bien sûr.

Sky : Vous voulez ajouter quelque chose ? Messieurs, merci.

Bernard Benhamou : Merci à vous.

Tariq Krim : Merci beaucoup.

Sécurité numérique - Lutte inégale entre le glaive et le bouclier ? - Guillaume Poupard

ven, 07/24/2020 - 10:57


Titre : Sécurité numérique - sommes-nous condamnés à une lutte inégale entre le glaive et le bouclier ?
Intervenant : Guillaume Poupard
Lieu : Collège de France - Séminaire de Gérard Berry - « Où va l’informatique ? »
Date : février 2019
Durée : 1 h 10 min 38
Visionner ou enregistrer la vidéo
Licence de la transcription : Verbatim
Illustration : security, Cyberbase de Morlaix Communauté - Licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage dans les Mêmes Conditions 3.0 non transposé.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Bonjour à tous.
C’est un grand honneur, je vais remercier Gérard [Berry] de son invitation, c’est un grand honneur et un peu une escroquerie en même temps, vous voyez il n’y a pas de slides, un artefact de cette escroquerie.
Ça fait très longtemps que je ne fais plus de science, je baigne dans la technique au niveau de l’ANSSI [Agence nationale de la sécurité des systèmes d'information ] et dans mes postes d’avant. Je ne fais plus de science, donc je ne vais pas vous parler de science, je vais vous parler de sécurité numérique telle que je la vis au quotidien, avec une deuxième escroquerie, c’est que je vais répéter ce qu’a dit Gérard. Je connais d’autres histoires, mais je n’ai pas le droit de les raconter, donc je vais m’appuyer sur celles-là qui sont publiques et qui sont déjà très éloquentes. Les autres, celles qui sont secrètes, elles ne sont pas plus éloquentes, c’est juste qu’il y en a beaucoup plus, de fait, malheureusement. Donc quand on connaît les histoires secrètes, on est juste encore plus inquiet fondamentalement. D’un point de vue qualitatif, là on a déjà l’essentiel.
Je vais reprendre un petit tout ça, donc je suis désolé il y aura plein de répétitions. Je vais vous redire la même chose sous l’angle, je ne sais pas comment dire ça, de l’administration, des pouvoirs publics, appelez ça comme vous voulez. L’idée c’est vraiment de vous convaincre qu’on a un vrai sujet avec ces questions de sécurité informatique, raison pour laquelle je dois bien avouer que j’ai été très agréablement surpris que ce dernier cours technique soit consacré à la sécurité, parce que, justement, je suis totalement convaincu que ce développement de l’informatique – il ne faut plus dire informatique, il faut dire numérique, encore mieux digital, bref, c’est de l’informatique tout ça – ce développement de l’informatique, qui s’est parfois opposé aux gens qui faisaient de la sécurité, ne sera pérenne et ne sera source de progrès que si les questions de sécurité sont prises au juste niveau. Et ce juste niveau est probablement très élevé, mais ce sera à vous de faire votre idée là-dessus.
À l’inverse, cette approche de la sécurité qui est souvent très noire, très pesante, c’est un peu tous les malheurs du monde dans ce monde numérique, on sait trouver des solutions, je vais essayer de vous en convaincre, on sait faire bien, c’est mal fait en général, mais ce n’est pas une règle. On sait bien faire, par contre ça demande de la compétence, ça demande des efforts, ça demande un peu d’argent, un peu de moyens, au juste niveau là-encore. Et si cet effort est fait, je suis persuadé qu’on sait tout à fait résoudre la plupart des grands problèmes aujourd’hui, il n’y a pas de verrous comme on pourrait dire. On a probablement encore quelques gros problèmes technologiques à résoudre, mais même ceux-là seront résolus, je n’ai absolument aucun doute. Par contre, il faut arrêter de développer quick-and-dirty, de développer comme des cochons parce que c’est très souvent ça la base du problème. Il faut également arrêter de se comporter comme des cochons parce qu’on est tous un peu responsables parfois de ces problèmes de sécurité numérique où on fait mal parfois, d’ailleurs parfois on sait qu’on fait mal. C’est un peu tout ça qu’il faut faire évoluer et c’est absolument indispensable et ça peut avoir des enjeux très forts, y compris en termes de sécurité nationale, c’est un peu le domaine dans lequel je suis aujourd’hui, puisque l’ANSSI en fait – je ne veux pas vous faire l’explication de ce qu’est l’ANSSI – c’est une entité qui dépend du Premier ministre et qui s’occupe de sécurité informatique avec, comme filtre essentiellement de prioriser tout ce qui concerne notre défense et notre sécurité nationale. Donc tout ce qui peut menacer la nation et la nation ce n’est pas l’État, la nation c’est vous, c’est moi, c’est toute cette cohésion qui peut aujourd’hui être gravement mise en danger par ces questions d’attaque informatique.
Il y aura toujours des attaquants, il y en aura toujours de plus en plus, ils seront toujours plus agiles, toujours plus forts, et ce sont toujours eux qui jouent avec les Blancs. De toute manière, il ne faut pas s’imaginer que tout ça est un effet de mode qui va passer, je ne vois vraiment pas par quel miracle ! Non ! Ce qu’il faut vraiment c’est prendre ce sujet à bras le corps.

Si on revient un petit peu sur les menaces, ça a été très bien dit, donc je reprends les mêmes exemples quelque part et avec une approche différente. C’est compliqué parce que très souvent, dans les médias, tout se mélange, on a l’impression que toutes les attaques sont au même niveau, c’est très anxiogène, mais on ne comprend pas très bien et à chaque fois c’est toujours la plus grande attaque de tous les temps parce qu’il faut faire des grands titres, évidemment. D’ailleurs, des fois j’attrape les journalistes qui écrivent ça, je dis « pourquoi vous avez dit ça ? Vous savez très bien que ce n’est pas le cas. — Ce n’est pas moi qui fais les titres, moi je ne fais que les articles, c’est mon rédac chef qui fait les titres », c’est sûrement vrai d'ailleurs.
Mais de fait de quoi on parle en général ? Ce qui fait souvent les grands titres ce sont les fuites massives de données, ces bases de données qui sortent, en ce moment c'est constamment, venues dont on ne sait trop où ; les motivations des gens qui publient ça sont parfois un petit peu obscures, pour être franc. Beaucoup plus souvent venues de la réglementation. Le Règlement général sur la protection des données1 qui est une approche européenne de la protection des données personnelles, c’est une avancée majeure sur la protection des données personnelles. On verra ! C’est probablement quelque chose qui méritera, à un moment, qu’on fasse du RETEX [retour d'expérience], il faudra comprendre ce qui marche bien, ce qui est excessif, ce qui est sous-dimensionné. Mais le fait, quand on perd des bases de données qui nous concernent, nous en tant qu’utilisateurs, le fait d’avoir à le dire, eh bien c’est probablement une bonne démarche, même si parfois dans mon métier ça m’embête, on pourra y revenir.
J’ai reçu des mails de Starwood me disant que mes données avaient été perdues. Mes gars sont allés voir dans la base de données de 700 et quelques millions d’adresses mails et ils sont venus me voir, un sourire en coin, en me disant « tiens il y a ton adresse mail perso qui est dedans et il y a aussi tes mots de passe, tu devrais faire gaffe ! » Bref ! On est souvent tous concernés par ces choses-là. Et ça c’est un peu le fonds de roulement, c’est un peu avec ça qu’on commence à vivre, à tel point que ça m’inquiète un peu, parce que comme c’est tous les jours, à force d’entendre la même fréquence en continu, le cerveau est bien fait, il finit par ne plus l'entendre, donc le danger ce serait ça, ce serait qu’on s’habitue au fait que finalement, toutes ces fuites de données, c’est quelque chose de normal et ce n’est pas normal ! J’avance vite là-dessus.
Après on a des attaques qui sont visibles mais qui ne sont pas graves – pas graves ça dépend pour qui ! –, régulièrement on a par exemple des attaques en déni de service qui bloquent des sites web. Bloquer des suites web, encore récemment, vous avez remarqué que les samedis étaient un peu agités, il y a un peu la même chose dans le monde numérique et parfois il y a des appels à bloquer des sites internet. On ne sait pas trop d’où ça vient. Il y a même eu récemment un communiqué de démenti d’Anonymous qui disait « non, nous on n’est pas d’accord, on ne veut pas attaquer les sites web ». Je vous laisse chercher à comprendre tout ça. Et c’est quoi bloquer un site web ? Simplement on va, comme ça, utiliser plein d’objets connectés, de machines compromises, sans que ça ait beaucoup d’impact d’ailleurs pour les détenteurs et ainsi de suite, et puis on va aller saturer des sites web ce qui fait que le site web n’est plus accessible pendant quelques minutes, c’est arrivé au site de l’ANSSI, ça arrive parfois aux meilleurs. Ce n’est pas très grave fondamentalement parce que ces sites web ne sont pas des outils opérationnels, il n’y a rien qui dépend vraiment de l’accessibilité à ces sites Web.
Quand vous appelez la Fnac et qu’on est à trois jours de Noël, là, la question se pose différemment, très clairement. Mais je vais va rester sur mon exemple, si un samedi après midi le site web de l’ANSSI est inaccessible pendant cinq minutes, ça ne change pas la face du monde ! Je suis d’ailleurs surpris qu’il y ait des gens qui l’ont remarqué, mais c’est pour être méchants !
Et pourtant, ça peut faire du bruit et pourtant ça peut réellement entamer la confiance qu’on veut développer dans le numérique, et ça peut être mal interprété.
Si le site internet institutionnel du ministère des Armées est bloqué comme ça pendant dix minutes, le titre dans la presse va être « Attaque informatique massive contre les armées françaises ». Mes collègues du ministère des Armées sont à chaque fois désespérés quand ils entendent ça, parce que non ! Ça ne fait ni chaud ni froid aux armées françaises le fait que le site soit tombé pendant quelques minutes, mais on commence à toucher à la confiance. Tout ce dont on parle là c’est finalement une question de confiance. C’est très technique mais au final c’est la confiance des utilisateurs, de vous, de moi dans ces systèmes-là qui est en jeu, cette confiance est très fragile.
Il y a d’autres types d’attaques, toujours sur les sites web d’ailleurs parce que c’est la partie visible. On a connu beaucoup ça en 2015 dans un contexte très désagréable qui était celui des attaques contre Charlie Hebdo, l’Hyper Cascher, début 2015, cette mauvaise période, eh bien on a eu plein d’attaques de sites internet en .fr , évidemment en .gouv.fr, pour aller afficher des messages. C’était assez variable, ça allait de « nous on n’est pas Charlie », vous vous souvenez de tout ça, à des trucs très agressifs, très pro-terroristes. Est-ce que c’est grave ? Pareil, question de jugement. Ça n’a pas forcément d’impact opérationnel, mais l’exemple que je prends toujours, le jour où vous avez vu un drapeau de Daesh en guise de page d’accueil sur le site web de votre mairie, eh bien après vous avez toujours une petite appréhension à aller inscrire vos gamins aux activités périscolaires. Et pourtant c’est vers ça qu’on veut emmener nos concitoyens.
Je prends souvent l’exemple : c’est du tag numérique, c’est du tag comme on peut en faire sur un bâtiment, il y a toujours des imbéciles pour faire des tags et tout ça. Ce n’est jamais très bon, sauf que là c’est fait sur Internet donc c’est fait à la face du monde et il y a un effet d’amplification qui est potentiellement très grave. Mais si c’est bien fait, si les systèmes sont bien faits, évidemment il y a une condition dans la phrase, eh bien ça n’a pas d’impact opérationnel très grave parce qu’on ne rentre pas au cœur des systèmes qui sont censés être critiques.
Je passe là-dessus.

Beaucoup plus grave, le développement de tout ce qui est criminalité. La criminalité ça commence à de la petite escroquerie sans un aucun moyen d'ailleurs, qui est plus astucieuse qu’autre chose. En ce moment, juste pour illustrer, il y a toute une campagne de gens qui vous envoient un mail, qui vous disent dans un français parfois approximatif, ça sent le Google Translate, « je suis un méchant hacker, j’ai pris le contrôle de votre machine, j’ai pris le contrôle de votre webcam, je vous ai filmé en train de faire des choses inavouables, mais je vais garder ça secret si vous me versez 200 euros, 2000 euros, les sommes varient, en bitcoins évidemment, sur tel wallet. » Extrêmement désagréable, même quand on a bonne conscience et tout ça, parce que c’est vraiment une atteinte à la vie privée et ça c’est très grave.
En fait, ces mails c’est du spam, ce n’est rien d’autre que du spam, ce ne sont pas des attaquants informatiques, ils n’ont pas attaqué votre ordinateur évidemment, ils n’ont pas l’effort d’attaquer votre webcam. Je ne dis que ce n’est pas faisable, mais ça demande un véritable effort, alors que là ils se contentent d’envoyer des mails à des centaines de milliers de personnes, des millions probablement vu le nombre de retours que j’ai eu eu simplement après un sondage. Dans le lot, tous ceux qui vont payer 1000 euros c’est autant de pris parce que l’effort par victime doit être de quelques centimes, s’il n’y a en que 1 % qui paye la rançon, le retour sur investissement, pour parler en termes économiques, est absolument colossal.
Petite escroquerie mais pénible !
Parfois ces gens-là sont très malins parce qu’ils vont aller piocher dans les bases de données de mots de passe qui ont fuité sur Internet, ils vont mettre ça dans leurs messages en disant « regardez, la preuve que je vous ai attaqué, je connais vos mots de passe ». Alors là, d’un seul coup on se dit « mince, il connaît mon de passe », donc c’est hyper crédible. Non ! On ne le sait pas forcément mais ces mots de passe sont déjà sur Internet, ce ne sont pas des secrets, ce ne sont plus des secrets.
Et puis, à l’autre bout du spectre, on a des escrocs qui sont très compétents techniquement, qui sont très dangereux, et qui ont compris que l’attaque informatique, les virus qu’on connaît qui sont aussi vieux que l’informatique et tout ça, ou presque, eh bien qu'on pouvait trouver un modèle économique dans ces virus. Avant, quand j’étais jeune — je commence à parler comme ça — les virus écrivaient des bêtises à l’écran, ils cassaient des disques durs, ils bloquaient la machine et tout ça, mais les gens qui faisaient ça ne gagnaient pas beaucoup d’argent directement manifestement.
Aujourd’hui c’est beaucoup plus simple, les rançongiciels, les ransomwares, les cryptolockers, il y a plein de noms comme ça, vont chiffrer les données. Au début ils chiffraient mal pour qu’on arrive à s’en sortir, aujourd’hui ils chiffrent bien, les gens qui font ça ont compris les principes de la cryptographie et ils vous disent « c’est bien simple, soit vous payez une rançon et on vous donne la clef de déchiffrement — d’ailleurs c'est très bien expliqué quand c’est bien fait — soit tant pis, vous avez perdu vos données ». Et puis là, si vous avez une bonne sauvegarde vous pouvez vous en tirer, si vous n’avez pas de sauvegarde ça peut être absolument dramatique de perdre ses données, donc c’est tentant, pour les victimes, de payer ces rançons. Évidemment, le message officiel sera toujours de ne pas payer les rançons, ce n’est pas bien de payer les rançons, ça encourage le crime, ce qui est vrai. Entre toutes ses données et 300 euros, je peux comprendre que certains payent. Le gros problème c’est que quand vous payez vous n’avez aucune garantie que vous allez réellement récupérer vos données. Vous avez quand même à faire à des criminels en face. On ne sait pas où ils sont, on n’est pas près de les attraper et ainsi de suite. Donc la qualité de service est variable, on va dire. Je dis ça sans rire. Des fois elle est excellente parce que certains de ces criminels ont justement à cœur d’avoir une très bonne réputation. Il faut que sur Internet on dise bien « moi j’ai payé et j’ai récupéré mes données, tout va bien ». Donc il y a en a qui ont une qualité de service qui est absolument remarquable et de fait ça marche bien.
Et puis il y en a d’autres qui développent comme des cochons, il y en a aussi chez les attaquants des gens qui développent comme des cochons et ces gens qui développent comme des cochons soit ils ne sont pas fichus de vous renvoyer votre clef, ils se trompent de clef, soit ils ne vous renvoient rien du tout, c’est une double escroquerie, soit ils se sont loupés dans le chiffrement ce qui fait que quand vous déchiffrez vos fichiers vous avez les 1024 premiers octets et le reste n’est pas déchiffré. Tout existe, on a tout vu.

Très souvent tout ça s’effondre, tout simplement, et typiquement l’attaque WannaCry2, c’était au printemps 2017. De fait, ce qu’on a pu tracer, tout ça c’est en source ouverte, c’est que l’attaquant a dû récupérer 30 000 dollars, par contre il a embêté la planète entière avec son truc et avec des conséquences dramatiques pour certains, le pire exemple étant en effet probablement le service de santé britannique : les hôpitaux ne marchaient plus, les systèmes d’ambulance ne marchaient plus, tout s’est complètement effondré. C’était un système qui était déjà connu pour être fragile donc ça a été un petit peu le coup de grâce. Tout ça a coûté très cher. Les estimations britanniques sont autour de 90 millions de livres, donc un système qui a déjà des problèmes de moyens il n’a pas besoin de payer ça. Et puis, quelque chose dont on ne parlera probablement jamais, c’est l’impact sur les personnes, parce que quand il n’y a plus d’hôpital et que les ambulances ne savent plus où aller, eh bien il y a des gens qui meurent probablement de manière prématurée. Et là, ce n’est pas pour faire de l’anxiogène pour l’anxiogène, mais on ne rigole plus, on n’est plus dans le déni de service, on n’est plus dans les pages web trafiquées, on est vraiment dans notre sécurité personnelle qui peut être totalement engagée.

Donc ça c’était WannaCry, ce n’était pas drôle, et c’est d’autant plus instructif que quand on a compris assez vite comment fonctionnait WannaCry – c’est un code assez complexe, c’est un mauvais escroc mais un bon développeur qui a probablement fait ça – on s'est rendu compte qu’il utilisait une faille qui s’appelle EternalBlue3 et cette faille n’est pas totalement anodine vu qu’elle a été volée à la NSA. On ferait des films avec tout ça, il y en probablement déjà d’ailleurs. C’est assez original ce qui se passe dans ce monde informatique parce qu’on a quand même peu d’équivalent avec le monde classique. De fait, la NSA, grand service de renseignement technique américain, qui fait de l’attaque et de la défense, c’est un peu mon homologue aux États-Unis, ça vous donne un petit peu la teneur des relations internationales que l’on développe, c’est intéressant au sens anglais du terme, ils font beaucoup d’attaques, ils l’assument pleinement. Pour faire de l'attaque ils développent des outils, ils ont des bases de vulnérabilité. Ils font des outils qui sont plutôt très performants. Quand ça fuite – par contre, parfois, ils ne sont pas très bons pour garder les secrets, Edward Snowden en a fait la preuve – dans ce qui a fuité, c’est une base de données absolument incroyable, on trouve des outils, on trouve les modes d’emploi de ces outils, on trouve les slides, les présentations pour expliquer à quel point tout cela est génial et se faire mousser auprès de ses autorités, on trouve même des compte-rendus d’utilisation de ces outils pour dire tel machin contre tel site c’est un succès ; quand on est dans la cible c’est un peu inquiétant donc après on va vérifier, tout ça est vrai. Et notamment, dans ce qui a été volé à la NSA par un groupe qui s’appelle The Shadow Brokers — qui est groupe ?, on ne sait pas ! — ils ont volé des tas de trucs, ils ont cherché à les mettre aux enchères, je ne suis pas sûr que ça ait marché, et puis ils ont fini par les rendre publics. Il y avait cette faille EternalBlue qui a tout de suite été jugée extrêmement critique par les spécialistes, qui s’attaque à un protocole, qui n’est pas le meilleur d’ailleurs, qui s’appelle SMB. Entre le temps de la publication de la faille, la réaction très rapide objectivement, notamment de Microsoft pour patcher ce truc, et l’attaque, il s’est écoulé suffisamment peu de temps pour que beaucoup d’utilisateurs n’aient pas eu le temps, n’aient pas pris le temps de patcher les systèmes.
On est dans une situation où des gens très forts se font piquer des choses très dangereuses, imaginez une des premières armées au monde qui se fait piquer des armes, comme ça, il y a vraiment ça dans le monde numérique et puis utilisées par on ne sait trop qui pour faire de l’extorsion, pour faire de l’escroquerie, des choses comme ça.
C’est vraiment contre ça qu’il va falloir apprendre à lutter dans le futur.
Je passe. C’était quand même intéressant l’attaque WannaCry.

Dans la foulée, on a eu NotPetya4, un peu différent, qui utilisait d’ailleurs un peu la même faille mais pas seulement. NotPetya c’est un peu différent parce que déjà, quand c’est arrivé, on avait passé un mauvais mois avec WannaCry ; le mois d’avant c’était l’élection présidentielle, on avait également passé des week-ends difficiles. Donc ça recommence. On se dit mince, c’est une malédiction ! Et là, tout de suite, les experts me disent « attention fais gaffe, NotPetya ce n’est pas pareil. Ça ressemble, tout le monde, tous les médias commencent à dire que c’est une nouvelle campagne et ainsi de suite, encore plus forte que la précédente comme à chaque fois. Fais gaffe, ce n’est pas la même. On a commencé à analyser le malware, en fait il ne chiffre pas les données, il les efface. Ou alors il les chiffre et il efface la clef », faire ça, c’est probablement la meilleure manière d’effacer. Et là, ce qu’on a compris assez vite collectivement, tout cela est également en open source, c’est qu’en fait c’est l’Ukraine qui était ciblée et qui était ciblée de manière extrêmement habile puisqu’en Ukraine il y a un logiciel de comptabilité publique qui est obligatoire pour déclarer des taxes, des choses comme ça, on doit avoir la même chose en France et dans tous les pays du monde mais ce ne sont pas les mêmes. Et l’éditeur de ce logiciel qui s’appelle MEDoc s’est fait attaquer, la mise à jour du logiciel a été corrompue, le malware a été intégré dans cette mise à jour, et ensuite chacun, appliquant probablement les bons principes de l’ANSSI ukrainienne, que je ne connais pas bien mais qui doit exister, a mis à jour ses logiciels et, en mettant à jour, a également récupéré le malware. Donc ça, en termes de ciblage, c’est absolument incroyable. Et en termes d’objectif, c’est purement destructeur. C’est de la mauvaise intention, le but c’est vraiment d’aller embêter la cible, avec là une capacité de ciblage particulièrement intelligente.
Qui c’est ? Qui a pu vouloir comme ça se payer toute l’économie ukrainienne d’un coup ? Nous on ne fait pas d’attribution et c’est assez pratique, mais on peut avoir des idées, ce n’est pas interdit. Mes gars me disent : « L ’Ukraine c’est bien pratique, c’est une sorte de champ de tir numérique », les pauvres, il faut voir ce qu’ils prennent ! Le problème c’est que là encore les charges explosives étaient mal dosées et surtout, elles n’avaient pas prévu le fait que ça allait éclabousser complètement en dehors de l’Ukraine pour la simple raison que certes ce logiciel MEDoc est purement ukrainien mais après, les réseaux eux ne s’arrêtent pas aux frontières. Et tous ceux qui avaient un orteil, un bout de réseau, bref, qui avaient une connexion avec l’Ukraine – et c’est le cas de beaucoup de multinationales, évidemment – eh bien, il y en a plein qui se font fait infecter par ce truc qui était extrêmement virulent, qui était destructeur. Et là il n’était même pas question de payer une rançon, c’était complètement bidon cette espèce de pseudo-rançon qui était demandée, et, de toute manière, les données étaient effacées, purement et simplement.
Donc là on change de catégorie, on passe de l’escroquerie, qui peut être parfois menée par des États à des fins de récupération d’argent, à des choses qu’on pourrait quasiment qualifier d’actes de guerre. D’ailleurs c’est toute la question pour certains : est-ce que c’est un acte de guerre ou pas ce que je viens de vous décrire ? Il y a notamment, en ce moment, un conflit aux États-Unis entre une société qui a été victime et son assureur, parce que l’assurance cyber commence à se développer, où l’assureur dit « moi je n’assure pas les actes de guerre, allez relire votre police d’assurance, vous verrez que les actes de terrorisme, les actes de guerre, les trucs radiologiques, ne sont pas couverts en général par les polices d’assurance, en tout cas pas les polices standards ». Et là, si on leur dit « c’est un acte de guerre, c’est l’Ukraine qui se fait bombarder comme ça, moi je n’y peux rien, c’est en dehors de la police d’assurance », la victime à laquelle ça a coûté quand même pas mal de millions cette affaire, dit « je n’en sais rien du tout, ce que je vois c’est que j’ai payé une police d’assurance pour assurer mes systèmes, que tout est tombé et que maintenant vous refusez de me payer ». Donc ce procès va être intéressant en termes e jurisprudence.
Ça c’était NotPetya, pareil, printemps 2017, particulièrement intéressant.

Et puis on a quelques autres histoires comme ça à raconter de sabotages, d’attaques. On a eu TV5 Monde, en 2015, il y a un attaquant très fort qui s’est dit « je vais me faire TV5 Monde », qui était une victime faible d’un point de vue informatique parce qu’elle ne pensait pas être attaquée, elle ne pensait pas être une cible, c’était même crédible. En fait, tout le monde est une cible. C’est ça la conclusion de tout ça ! Un attaquant très fort s’en est pris à TV5 Monde et n’a pas cherché à lui voler des données ou quoi que ce soit, mais il est entré dans son réseau, il l’a cartographié pendant deux mois et, à un moment donné, ils ont déclenché leur attaque et ils ont détruit tous les équipements de production audiovisuelle, les uns après les autres. Détruire ça veut dire quoi ? Comment fait-on pour détruire des équipements à distance ? Aujourd’hui c’est bien simple, on va bousiller le logiciel qui est à l’intérieur, que ce soit du micro-code ou du logiciel sur une couche supérieure mais ça revient à peu près au même. D’abord, l’équipement ne marche plus ça c’est très clair, et même à réparer – les équipement de TV5 Monde sont partis à la benne, ils ont été remplacés par des neufs un peu mieux sécurisés. C’est totalement irréparable.
Donc on voit apparaître une liaison très forte entre le monde cyber, numérique, éthéré, que certains imaginent ou pensent imaginer, et puis ce monde physique bien réel. Et c’est l’enjeu auquel on est confronté aujourd’hui. Ce numérique est partout. Vous le savez, il est partout, il est dans les transports, il est dans tous les systèmes industriels. Il n’y a pas que les ordinateurs, il n’y a pas que la bureautique, il y a toute cette informatique industrielle, cette informatique très souvent cachée. Allez aujourd’hui dans une usine moderne, c’est incroyable ! Il y a des automates de partout et dans chaque petit automate, c’est de la taille d’un disjoncteur, à chaque fois il y a un processeur, de la mémoire, un Linux [GNU/Linux] pas patché en général, et puis des moyens de communication. Tout ça a évolué à une vitesse absolument incroyable et, en général, avec une maîtrise très limitée de la part des détenteurs de ces usines. Donc c’est vraiment ça la transformation qu’il y a et tout l’enjeu c’est comment est-ce qu’on fait pour faire cette évolution de manière sécurisée, donc sans ouvrir les portes en grand à tous ces attaquants qui ont les idées, qui ont déjà fait la preuve du fait qu’ils avaient ces idées.

On pourrait prendre plein d’exemples. On peut se faire très peur, sincèrement.
Au niveau de l’ANSSI on est plutôt sur le champ défense et sécurité nationale, ça veut dire qu’on prend ça par l’angle qu’est-ce qui est le plus grave, donc on s’intéresse à quoi ? On s’intéresse aux administrations les plus sensibles, aux ministères les plus sensibles, plus pour des raisons d’espionnage qui reste quand même le fonds de commerce. Et là, l’espionnage c’est intéressant parce qu’il n’y a pas de règles, quoi qu’on en dise, l’espionnage c’est également intéressant parce qu’on se fait aussi attaquer par nos alliés, donc ça pose les problèmes de manière très particulière. Il y a l’espionnage, très clairement. Et puis, au-delà de ça, on travaille depuis maintenant plusieurs années très fortement avec ce qu’on appelle les secteurs d’activité d’importance vitale, ça fait très techno dit comme ça. En pratique c’est qui ? Ce sont les gens qui font de l’énergie, l’électricité, qui la fabriquent, qui la transportent, qui la distribuent. Tout ça c’est informatisé, tout ça ne doit pas être attaqué ou attaquable.
On travaille avec les télécoms, beaucoup, pour les mêmes raisons, la 5G qui est un peu à la mode en ce moment. La criticité des réseaux 5G c’est à peu près l’équivalent, à terme, de la criticité de la distribution d’énergie, peut-être même pire, parce qu’en électricité vous pouvez toujours avoir une génératrice à diesel et tout ça, un moteur de sous-marin planqué dans le sous-sol pour faire de l’électricité si vous n’êtes plus alimenté par votre fournisseur, en télécoms ce n’est pas dit. Ces réseaux vont être très critiques, c’est ce qu’on appelle vraiment des infrastructures critiques, nous et nos alliés, pas que nos alliés, tout le monde d’ailleurs, tout le monde voit ça comme ça.
Les transports sont des sujets où on peut « s’amuser » à se faire très peur aussi, s’amuser avec des guillemets.
Aujourd’hui on n’a pas de terrorisme cyber, c’est encore une invention, c’est encore de la science-fiction. On a un terrorisme très rudimentaire et déjà efficace. Qu’est-ce qui se passera demain si un terrorisme technologique se développe ? Je prends des exemples, après j’aurai droit à des coups de fil « pourquoi tu as encore parlé de nous ? », j’en prends quand même un, ils sont habitués maintenant. Si demain un groupe terroriste fait la preuve qu’il a fait s’écraser un avion de ligne par de l’attaque informatique, on va rentrer dans une crise mondiale sans précédent. Je peux vous dire ce qui va se passer dans l’heure qui suit : il n’y a plus un avion qui décolle, par contre, après, je ne sais pas vous raconter l’histoire. Le seul truc c’est qu’il ne faut pas la vivre cette histoire, il ne faut pas en arriver là, donc on n’a pas le choix. Il y a peut-être des domaines où on peut attendre les attaques, fonctionner comme ça, jouer au chat et à la souris avec les attaquants et jouer par essais/erreurs, comme on le fait dans beaucoup de domaines. Mais dans ces secteurs absolument critiques on ne peut pas se permettre d’échouer, donc il faut anticiper, il faut prévenir, il faut se protéger. Et toutes les grandes idées de contre-attaque et tout ça seront vaines, très clairement, le mal sera fait.

Dans le domaine de la santé également — puis je vais arrêter là ma liste, mais il y en d’autres — toute la santé est en train de se numériser et c’est absolument formidable ce que l’on voit d’ailleurs, se numériser au niveau des infrastructures de santé, dans les hôpitaux, c’est juste fou, les XP cachés c’est une réalité, évidemment, mais aussi les clés USB. Juste une parenthèse, une anecdote personnelle. À la maison je suis un peu parano, je fais un peu gaffe, je fais gaffe à ce que j’installe — je reviendrai après sur les règles de sécurité —, je fais gaffe aux mails que je reçois. Je n’ai jamais eu de virus, il suffit de dire ça pour avoir un problème ce soir, ce n’est pas une provocation non plus, il ne faut pas prendre comme ça comme un défi, mais, de fait, je n’ai jamais eu de virus. La seule fois où j’ai eu un problème, en phase d’échographie pour un heureux évènement et tout cela, on fait des photos, tout allait bien et puis à la fin le médecin me dit : « Si vous voulez, si vous avez une clef USB, vous me la donnez, je n’ai pas le droit de le faire, mais je vous donne les photos sur la clef », très sympa. Je dis bien sûr, je n’étais pas là pour un faire un cours de sécurité informatique. Je donne ma clef, on rentre à la maison, tout va bien, je branche sur le PC, alors là, un festival ! Un festival ! Voilà ! C’est ce qu’on appelle un pot de miel, en fait, un truc non sécurisé où chacun y va avec sa clef, chacun amène son virus sans le savoir, ça fait une sorte de collection et chacun repart avec l’ensemble de la collection pour le coup. Ce qui me surprend encore, pour être franc, c’est que la machine continue à fonctionner. Pas mon PC, mais la machine pour l’échographie. Pourquoi ? Tout simplement parce que le machin a été fabriqué avec une version bien fixée de l’OS et surtout aucune procédure de mise à jour, évidemment parce que pour ça il faudrait que ce soit connecté et ce n’est évidemment pas connecté et puis ce n’est pas demandé par le client et voilà ! Au final, c’est catastrophique ! Là ce n’est pas grave ce que je vous raconte, ce n’est pas très grave. Le jour où ça touche un scanner, le jour où ça touche un équipement de radiothérapie, ça peut être beaucoup moins drôle, objectivement. Il y a ça et puis il y a toute la question des objets connectés. C’est super ces objets connectés, les pacemakers, les pompes à insuline, tout ce qu’on va nous mettre dans le corps, on va vivre 20 ans de plus en bonne santé grâce à ça, objectivement c’est génial ! Il ne faudrait pas que ça nous tue ! Moi je dis ça, je ne dis rien ! On a un vrai sujet. On a un vrai sujet avec ça. Comment faire pour que cette avancée formidable se fasse en bonne intelligence avec ces questions de sécurité ? Le gros problème c’est que ces objets connectés, typiquement, certains vont coûter 10 euros et passer de 10 euros à 11 euros, ça fait 10 % plus cher, donc on commence à réfléchir. Comment fait-on pour faire de la sécurité à ce prix-là ? Très compliqué. Déjà quand on fait un avion c’est compliqué, alors que ça coûte parfois des centaines de millions, quand on fait un truc à 10 euros c’est encore plus complexe, mais je suis sûr qu’on y arrivera. Globalement on a su faire pour les cartes à puce, les choses comme ça, donc on devrait y arriver.

Dernier exemple d’attaque que je ne sais pas classer dans le reste : depuis 2016 on voit apparaître des attaques informatiques qui visent le fonctionnement même de nos démocraties, qui visent les processus électoraux. C’est la campagne américaine qui a lancé ça, si vous vous souvenez campagne Trump/Clinton, qui n’avaient pas forcément besoin de ça, de manière autonome ils arrivaient à générer suffisamment de bruit et de bêtises, mais ça a été, en plus, attaqué par des attaquants qui ont notamment volé des mails, qui les ont publiés, qui les ont parfois agrémentés, qui ont ajouté des bêtises dans ces mails, histoire de discréditer tel ou tel personnage ou tel ou tel candidat ou candidate en l’occurrence, et dans la pire des situations, une situation où on a 50/50. Vous vous souvenez de cette élection, victoire à Trump, majorité de voix à Clinton. Si l’attaquant a réussi à faire passer un pouième de votes d’un côté à l’autre simplement par cette manipulation de l’opinion, eh bien il a changé le résultat de l’élection.
Les manipulations de l’information, la désinformation et tout ça c’est vieux comme le monde, simplement ce que l’on vit aujourd’hui c’est un monde qui a changé et un monde dans lequel il y a beaucoup de nouveaux outils qui sont offerts, permis, développés par les attaquants qui cherchent à manipuler ces opinions. C’est très compliqué parce que ça mêle de l’attaque informatique, typiquement le vol de mails et la diffusion, et également de la diffusion de fausses informations, ces fameuses fake news, de la manipulation médiatique, de la manipulation sur les réseaux sociaux, ce qui, pour moi, n’est pas de la sécurité informatique, ce sont des questions de sécurité mais pas au sens SSI, tels qu’on les traite et, de fait, depuis 2016 on vit avec ça et on doit maintenant lutter contre ça. Et pendant l’élection présidentielle en 2017, deux jours avant le scrutin, le vendredi, je me souviens très bien, je l’avais même prédit en interne, j’avais dit « de toute manière, si on a un problème ce sera le vendredi à quelques heures de l’espèce de shut down, du moment où plus personne n’a plus le droit de communiquer ». Ça n’a pas manqué ! À quelques heures, trois boîtes mails de très proches du candidat Macron se sont fait, comme ça, diffuser. Ce n’est pas de la grosse attaque puisque ce sont des gens qui se sont fait avoir par de l’escroquerie par mail comme on peut tous se faire avoir quand c’est bien fait, objectivement, et avec, potentiellement, le risque d’un impact sur le résultat de l’élection. Je ne pense pas que ça en ait eu parce qu’on n’était pas à 50 /50 non plus, loin de là, mais on va devoir apprendre à vivre avec ça, plus tout ce qui va avec et qui n’est pas mon métier qui est comment est-ce qu’on fait pour lutter contre la désinformation. Je vous laisse réfléchir, c’est un sujet qui est extrêmement complexe, il n’y a pas le vrai et le faux, c’est une évidence.

Autre problème que je voulais partager avec vous, dans le domaine militaire, dont je viens, en général vous savez qui vous attaque. Il y a toujours des opérations secrètes, des commandos ultra secrets, des hommes grenouilles qui ont des combinaisons dont ils ont coupé les étiquettes pour qu’on ne puisse pas retrouver le pays d’origine – quand ils pensent à couper les étiquettes, mais en général ils savent le faire, quand ils oublient ça fait du bruit pendant très longtemps – mais, pour la plupart des attaques, on sait qui attaque.
Dans le domaine informatique, c’est l’inverse. En général, vous ne savez pas qui vous attaque. Ce n’est pas tout à fait vrai. En général, vous ne savez pas prouver qui vous attaque, il n’y a pas d’évidence sur qui vous attaque. Vous finissez par vous douter de qui c’est et puis vous pouvez avoir une sorte de faisceau de présomptions. Mais face à un juge, un juge au sens large, quelqu’un qui a autorité et qui doit décider si oui ou non la personne que vous accusez est bien la bonne, eh bien c’est pratiquement impossible aujourd’hui d’apporter des preuves dès que vous avez à faire à des attaquants de haut niveau. Des fois on a des indices, des indices intéressants. Qu’est-ce qu’on a comme indices ? On peut aller voir dans le code des malwares, dans le code des virus, des fois on trouve des commentaires, les attaquants ne sont pas très prudents sur les notions de compilation, ils laissent les commentaires et tout ça, et les commentaires peuvent être en anglais, ils peuvent être en cyrillique, ils peuvent être dans un anglais un peu francisant et on peut, comme ça, deviner un petit peu d’où ça vient, ça a pu exister. Donc on peut se dire, comme ça, quand on trouve des commentaires en russe dans un malware que ce sont les Russes qui nous attaquent. On a une preuve. Quand vous y réfléchissez, mettre des commentaires en russe pour faire porter le chapeau à untel, ce n’est pas très compliqué à faire, c’est même trivial à faire. À tel point d’ailleurs, je ne vais taper que sur la NSA, je vais aussi taper aussi sur la CIA, la CIA s’est fait attaquer par un autre groupe qui s’appelle Vault 75, elle s’est fait piquer des outils, tout ça a été diffusé, et parmi les outils de la CIA il y avait un, alors c’était vraiment avec une belle IHM [interface homme-machine] parce que probablement que les opérateurs de la CIA sont moins geeks que ceux de la NSA, une belle IHM où, en fait, vous avez un menu déroulant et vous dites à qui vous voulez faire porter le chapeau ! Et ça intègre automatiquement les preuves pour faire porter le chapeau. C’est génial et en même temps très logique.
Donc ça c’est une preuve, mais une preuve moyenne. Qu’est-ce qu’on a d’autre ? Eh bien les fuseaux horaires de compilation, les heures d’activité et tout ça, c'est une preuve aussi. Quand vous êtes un peu motivé, déjà vous pouvez changer la date de vos ordinateurs et même, quand vous êtes hyper-motivé, vous vous levez la nuit pour faire porter le chapeau, ce n’est pas hors de portée dès que vous avez un peu de moyens, donc c’est pareil, c’est un peu louche.
Dans les trucs rigolos qu’on a parfois à faire, il y a certains attaquants qu’on suit, il y a une relation presque intime qui s’installe avec eux, on suit leur activité. On sait que certains sont très actifs pour les ponts du mois de mai. À des moments où ils savent que les défenses peuvent peut-être se relâcher. Il y en a d’autres dont on sait qu’à Noël, pendant 15 jours, ils arrêtent, probablement des fonctionnaires. Donc il y a comme ça des habitudes qui se prennent. Il y a eu certains attaquants où on corrèle les jours d’inactivité avec les jours fériés. Et en fait, quand vous avez une corrélation parfaite, ça désigne un pays ; quand vous prenez tous les jours fériés c’est une signature d’un pays.

Là encore ce sont quand même très souvent de bons indices, mais ce ne sont pas des preuves, bien évidemment.
Je pourrais prendre plein d’exemples comme ça, on a plein d’exemples. Et puis, très souvent, c’est à qui le crime profite ? C’est le vieil adage des films policiers. Donc quand vous mettez tout ça bout à bout, il nous arrive régulièrement de dire à nos autorités « c’est machin », mais on n’a pas de preuves.

Certains commencent, les Américains commencent, ils ont deux/trois cas intéressants de la justice américaine où là, pour le coup, ils ont identifié qui a fait les attaques, ils ont les noms, ils ont les photos, en uniforme en général. Ça commence à se préciser, mais dans 99,9 % des cas on ne sait pas qui c’est, on ne peut pas le prouver.
Donc cette question de l’attribution est absolument majeure. J’insiste un peu dessus parce que tous nos mécanismes de défense, de coopération, d’entraide mutuelle, que ce soit au sein de l’Europe, au sein de l’Otan et ainsi de suite, s’appuient sur l’hypothèse parfois même totalement intuitive, même pas écrite, qu’on sait qui attaque. Quand vous ne pouvez pas dire qui attaque, comment est-ce que vous faites contre-attaquer ? Comment est-ce que vous faites pour porter assistance à une victime et ainsi de suite ? C’est extrêmement compliqué. Donc on est dans une situation de sécurité qui est totalement inédite de ce point de vue-là et qui remet en cause énormément de mécanismes pourtant bien rodés et c’est bien dommage, ce qui fait que beaucoup s’attachent à cette idée d’attribution parce que, sans ça, on n’y arrive pas.
Mon approche est plus de dire qu’on n’est pas près d’arriver à l’attribution. Il faut se concentrer sur de la protection, de la prévention, il faut empêcher les attaques, il faut rendre le coût des attaques beaucoup plus élevé pour les attaquants et ne pas s’imaginer qu’on va les détecter pour ensuite contre-attaquer, ce n’est pas le bon schéma. Mais quand je dis, notamment à des militaires, que la meilleure défense, c’est la défense, ce n’est pas glorieux, mais c’est pourtant ce qu’il y a de plus efficace.

Quelques mots sur des sujets qui ont déjà été abordés mais qui me tiennent à cœur.
D’abord la cryptographie, pas uniquement parce que j’en ai fait il y a très longtemps, au siècle dernier, mais parce que ça reste la base de beaucoup de choses. D’ailleurs la cryptographie c’est un bon exemple. On a mis 2000 ans à faire passer l’avantage de l’attaque à la défense. Notamment, il a fallu 2000 ans pour se rendre compte que le secret des méthodes ce n’était pas la bonne manière de protéger les méthodes de chiffrement et ce n’est pas intuitif.
Si on a mis 2000 ans pour en arriver là c’est que ce n’était probablement pas intuitif. Et puis tout s’est un peu inversé dans les années 70, à la fois au niveau de tout ce qui est chiffrement symétrique,ce qui a été dit rapidement, et également avec l’invention de toutes les méthodes de cryptographie asymétriques qui, pour le coup, ont levé des verrous technologiques absolument phénoménaux et ça a permis tous les usages que l’on peut connaître. Cette prise de conscience a vraiment été un tournant, ça a été énoncé par Kerckhoffs6 à la fin du 19e, mais finalement réellement appliqué que très tard du fait que la méthode devait être publique et seules les clefs devaient être secrètes. C’est la base de beaucoup de choses.

Aujourd’hui on peut dire qu’on sait faire de la cryptographie, de bons mécanismes cryptographiques, il faut être très modeste dans ce domaine-là. Il y a parfois des mauvaises surprises, mais globalement, au niveau théorique, c’est incroyable le progrès qui a pu être fait. Là où ça se gâte sérieusement c’est évidemment au niveau des implémentations. Alors là c’est vraiment un sport extrême. C’est hyper-compliqué de bien implémenter. Plusieurs exemples éloquents ont été cités, moi j’aime bien, typiquement, le coup des messages d’erreur ; quand on développe bien c’est ce qu’on apprend à faire, de bons messages d’erreur et tout ça. Le simple fait, finalement dans certains protocoles crypto, d’envoyer des messages d’erreur quand il y a un truc louche, rien que ça finalement quand c’est bien fait, quand l’attaquant fait bien son truc, ça permet de tout casser, c’est assez incroyable !
La génération d’aléas, c’est un truc incroyablement compliqué, en fait, alors qu’on pourrait se dire qu’il n’y a pas plus simple. Non, c’est incroyablement compliqué.

Il y a certains systèmes cryptographiques dont on sait prouver la sécurité avec quelques bonnes hypothèses bien identifiées, eh bien dès que l’aléa – et en cryptographie asymétrique il y a beaucoup d’aléas, c’est vraiment une des bases fondamentales – peut être un tout petit peu biaisé, on peut tout ruiner. C’est vraiment passionnant ! Pour le coup, pour les jeunes qui veulent faire des sciences marrantes dans ce domaine-là ça reste un champ d’exploration absolument incroyable.
Et puis il y a l’implémentation, que ce soit logicielle ou matérielle ou un peu entre les deux. C’est passionnant de regarder ce qui s’est fait notamment en termes de sécurité des cartes à puce. Ça nous renvoie aux canaux auxiliaires avec des cas plus simples probablement que ce qui se passe sur les microprocesseurs, mais quand on a découvert, vers 1996, quelque chose comme ça, qu’une carte à puce, ce n’est pas l’attaque la plus simple à faire mais qui est la plus triviale finalement en termes de canal de fuite : simplement en regardant le temps de calcul vous pouvez en déduire des secrets, ça a été une vraie surprise, effectivement. Et puis une carte à puce c’est un bon exemple parce que ce sont des concentrés de technologie absolument incroyables, mais, en même temps, c’est très vulnérable. Vous lui apportez tout. Vous lui apportez en général l’horloge, l’énergie, et puis ce n’est pas très intelligent une carte à puce.
Donc les attaques qui sont sorties à cette époque-là et qui ne font que se raffiner depuis, que ce soit par exemple en regardant la consommation de courant, eh bien les cartes à puce n’étaient pas prévues pour résister à ça ; simplement sur le silo on lisait les clefs, les secrets qui étaient contenus dans la carte. Ça aussi ça a été un choc y compris pour des mécanismes de crypto très robustes qui sont encore très robustes aujourd’hui, ce sont deux choses très différentes.

L’autre type d’attaque qui a été également totalement révolutionnaire, ce qu’on appelle les attaques par faute, ce n’est pas tout à fait pareil, ce n’est pas de l’information qui fuit, mais on provoque des erreurs et on en déduit des secrets. On pourrait se dire que quand on provoque une erreur eh bien on grille la carte ou on obtient un résultat faux et on ne peut pas en tirer grand-chose. Typiquement, avec certains mécanismes de cryptographie asymétrique qui sont, là encore, théoriquement très robustes, vous faites le calcul une première fois normalement, une signature par exemple, et une deuxième fois en provoquant une faute, ce n’est pas protégé, par un calcul mathématique trivial, vous en déduisez la clef. C’est vraiment fascinant.
Comment est-ce qu’on fait pour faire des fautes ? Typiquement, avec un laser, ça marche bien. Il faut bien le doser parce que pas assez fort ça ne fait rien, trop fort ça fait un trou, mais entre les deux on arrive à faire des erreurs, un bit qui s’inverse, un truc comme ça, ça reste de l’électronique. Là on est vraiment dans le titre que j’avais transmis, je parlais de glaive et de bouclier, c’est l’attaque et la défense. L’attaque et la défense jouent l’une contre l’autre depuis maintenant 20 ans et ce n’est pas près de s’arrêter. La défense continue à rajouter des systèmes de protection, de détection d’attaques, des choses comme ça. Les attaquants, au sens éthique du terme, notamment dans les centres d’évaluation avec qui on travaille, eh bien ils perfectionnent leurs méthodes et il y a, comme ça, ce jeu permanent. Raison pour laquelle vous vous êtes peut-être déjà demandé pourquoi votre carte bancaire changeait tous les trois ans, ce n’est pas parce qu’elle est un peu effacée, non, c’est parce que la puce qu’il y a dedans n’est plus du tout la même, simplement. C’est pour ça que c’est important de récupérer tous les trois ans votre carte pour vous en donner une nouvelle qui repart sur un composant de qualité. Quand on travaille sur des composants d’il y a dix ans, sincèrement ça tient dix secondes. Voilà ! C’est tout ça qu’il faut être capable… Là c’est de l’astuce, quelque part, dans ce jeu du chat et de la souris, pour rester à un bon niveau de sécurité.

Sur la crypto, deux choses encore. D’abord on entend beaucoup de bêtises sur le quantique, grand classique ! Grand classique quand on veut tout mélanger parce que les termes s’y prêtent.
D’abord il y a l’ordinateur quantique, on s’est longtemps demandé s’il allait exister un jour, on n’a plus trop de doutes ! Après, quand est-ce qu’il sera en vente à la Fnac ? Je ne sais pas, ça ne sera sans doute pas avant un certain temps. Le gros problème ou le gros avantage, suivant qui on est, c’est que ça permet sûrement de faire des tas de choses, mais ça permet essentiellement de casser la cryptographie asymétrique, en tout cas les algorithmes les plus répandus. D’ailleurs, ce n’est pas par hasard si ceux qui ont mis des sommes colossales là-dessus, tournent autour de la NSA et ils ne s’en cachent pas. Ça c’est un premier problème.
Si la crypto asymétrique devient vulnérable, ça veut dire qu’un jour il faudra en changer. Donc il nous faut des mécanismes de cryptographie qui résistent, ce qu’on appelle les mécanismes post-quantiques, la crypto post-quantique.
Là c’est tout un champ, un nouveau champ depuis maintenant plusieurs années, qui est ouvert pour de la recherche, de la recherche qui aura des applications parce que ce sont les standards de demain qu’il faut définir pour faire des algorithmes asymétriques comme ceux de tout à l’heure qui échangeaient, RSA7 et compagnie, mais qui résistent à ces ordinateurs quantiques. Il y a des pistes mais ce n’est pas si simple à faire.
Et puis, pour tout compliquer, il y a la cryptographie quantique qui existe aussi. C’est là où en général tout se mélange. Crypto quantique ça veut dire qu’on n’utilise plus du tout les mécanismes dont on a parlé là, mais on utilise les propriétés de transmission optique pour faire en sorte – ce qui est le contraire de l’hypothèse habituelle en crypto – que le canal ne soit pas interceptable, qu’on ne puisse pas intercepter les messages. Évidemment, quand on intercepte, ça a véritablement un impact sur la transmission, donc on peut, comme ça, monter des choses sécurisées.
Donc crypto quantique, ordinateur quantique, crypto post-quantique, ce sont trois choses qui n’ont rien à voir, fondamentalement, mais quand vous mélangez tout ça et que vous en faites un concept bizarre pour parler dans les salons le soir, eh bien ça fait ce truc quantique qui énerve tous les cryptos en général. Mais c’est un vrai sujet en soi, un vrai sujet qui est bien pris en compte.

Dernière chose sur la crypto. Aujourd’hui la crypto moderne a un défaut majeur c’est qu’elle est trop forte. Ça ce n’est pas un sujet facile. On sait très bien que tous les services de renseignement, d’enquête et tout ça, déjà il y a très longtemps avaient identifié le fait que la crypto ce serait dangereux, c’est exactement ce qu’on disait.
La France a fait partie des pays qui ont résisté le plus longtemps, je ne sais pas si c’est glorieux ou pas, mais à un moment on s’est rendu compte, c’était au milieu des années 90, qu’il y avait trois pays qui interdisaient encore la cryptographie pour un usage grand public, ça devait être l’Iran, la Corée du Nord et la France. Ça politiquement, c’est… Et puis ce n’est pas très réaliste.
Donc 1998, des travaux ont été menés pour la libéralisation de la crypto et je vous passe les détails, 2004, dans la loi il a été écrit, je cite mot à mot « l’utilisation des moyens de cryptologie est libre ». C’est fort de mettre ça dans un texte de loi ! Le fait qu’il y ait eu une nécessité d’écrire ça dans un texte de loi, ça veut dire quelque chose. Donc aujourd’hui l’usage de la cryptographie en France est libre. Ça pose un problème : il y a des cas où les services de renseignement, les services d’enquête, aimeraient bien pouvoir casser cette crypto.
Donc on est dans un débat qui est compliqué, objectivement, et pas qu’en France, loin de là, qui est comment est-ce qu’on fait pour permettre à tous les gentils d’utiliser la crypto mais pas aux méchants ? Posé comme ça, vous vous doutez bien que la réponse n’est pas facile. Toutes les grandes idées, genre il faut ré-interdire la crypto, ce n’est même pas la peine d’y penser, bien évidemment, parce que les conséquences négatives seraient sans commune mesure avec le gain et, de toute manière, ce serait très illusoire parce qu’avec ce genre d’idées on embête les gentils et on n’embête pas les méchants, donc c’est exactement l’inverse de ce qu’on veut faire.
La deuxième idée : on va affaiblir la crypto pour la mettre juste au niveau, c’est-à-dire que les grands services vont être capables de la casser, mais pas les autres. Ça ne marche pas non plus parce que le temps joue contre nous, à supposer que les gentils aient plus de puissance de calcul que les méchants, ce qui est déjà une très grosse supposition en soi !
Et après, il y a des solutions beaucoup plus techniques de portes dérobées, de trap doors, de choses comme ça, on va bidouiller un peu la crypto pour faire en sorte qu’elle soit accessible par ceux qui ont les bons passe-partout. Les passe-partout ça ne marche pas. Si vous avez une valise un peu haut de gamme, il y a sûrement une clef TSA [Transportation Security Administration] qui permet de l’ouvrir, les clefs TSA s’achètent pour quelques euros sur Internet, ces passe-partout de l’administration américaine, là on est dans le monde physique, ce n’est pas de la crypto ; ça ne marche pas dans le monde physique, c’est archi-démontré. Dans le monde numérique ça ne marche pas non plus, objectivement, parce que très vite les méchants ont également les clefs même si c’est bien fait cette affaire-là.
On m’accuse souvent de défendre la crypto et de ne pas apporter de solution à ce problème d’accès légitime, notamment par les services d’enquête, mais de fait c’est un sujet qui est extrêmement complexe et tant qu’on n’a pas de solution, et je ne suis pas sûr qu’on en trouve un jour, eh bien il faut admettre que le bénéfice de ces mécanismes est largement supérieur aux problématiques qu’ils peuvent nous poser également en termes de sécurité.
C’est un sujet récurrent, de toute manière, je pense qu’on ne s’en sortira pas, il faudra continuer à expliquer ces choses-là en continu.

On passe très vite. Il faut que j’avance.

Je vais vous dire deux mots d’open source et d’OS open source pour faire de la pub. Dans ma fonction je ne suis pas à dire « les logiciels propriétaires ce n’est pas bien, les logiciels open source c’est bien », parce qu’en termes de sécurité, malheureusement, c’est beaucoup plus complexe que ça. Il y a de l’open source très mal fichue, effectivement ! Et le fait de se dire que ce n’est pas grave, vu que c’est open source les gens le verront, ce n’est pas vrai, on le sait très bien. II y a des bugs très graves qui ont été trouvés dans certains systèmes open source, où, en fait, quand on va avoir le code source il y a un commentaire à côté qui dit « ça c’est tout pourri, je n’ai pas le temps de corriger, mais il faudra quand même y penser ». Le bug est expliqué ! Il dit « ce n’est pas bon parce que ci, parce que ça, et je n’ai pas eu le temps de corriger » et ça dure après pendant des années parce que, évidemment, personne ne relit l’intégralité du code source avant de compiler et il faut être encore capable de le faire. Je passe là-dessus.
À l’inverse, les systèmes propriétaires, évidemment, ce n’est pas forcément super sain de base, on pense tous un peu aux mêmes, ils ont fait des gros progrès mais ça reste un petit peu dérangeant cette obscurité des codes.
De fait, je ne veux pas dire qu’il y a les gentils et les méchants, c’est beaucoup plus complexe que ça.
Je disais que je voulais faire de la pub parce qu’on a récemment rendu open source une version de Linux [GNU/Linux] sur laquelle on a travaillé pendant très longtemps, je vois Olivier là-haut qui doit connaître ça par cœur. En fait, c’est un Linux qui est durci. Durci ça veut dire qu’on a commencé par enlever tout ce qui ne servait à rien et c’est déjà bien en termes de sécurité d’enlever tout ce qui ne sert à rien et c’est beaucoup. Parfois on est surpris. On a fait récemment le travail sur un logiciel open source de messagerie instantanée, dans un projet interministériel, la plus-value de l’ANSSI a été de virer 80 % du code source. À la fin on ne se rend pas compte du fait qu’on a enlevé des trucs, mais même, les gens viennent dire « ça marche vachement mieux ! » Ça fait réfléchir les informaticiens, ça rend modeste ça aussi et surtout, ça fait autant de surface d’attaque en moins, fondamentalement. Tout le code mort et tout ça, évidemment il faut l’enlever.
Tout ça pour dire qu’on a fait une version durcie de Linux [GNU/Linux] qui permet également d’avoir différentes cages, différentes instanciations, avec cette idée de schéma assez simple où, pour faire de la sécurité, le diable c’est Internet. Pour faire de la sécurité de bon niveau en étant connecté à Internet c’est super dur, même quand vous êtes bon, donc ça complique un peu les choses, évidemment. Par contre, avoir des machines sur lesquelles on arrive, en virtualisant, à avoir une instance connectée à Internet avec le risque, évidemment, qu’elle soit compromise, et une autre instance qui, elle, n’est pas connectée à Internet tout en ayant quand même les deux sur une même machine parce que deux machines c’est quand même pénible et c’est quand même bien, de temps en temps, de pouvoir passer de l‘information de l’une à l’autre, ça c’est quand même un modèle qui nous semble particulièrement intéressant et prometteur.
Donc voilà, ça s’appelle CLIP OS8, je vous encourage à aller voir, c’est open source. On a fait de l’open source sécrète pendant dix ans maintenant c’est de l’open source qui est réellement open source, je trouve que ça fait partie des beaux projets qui font partie des produits de l’Agence.

Deux derniers points.
Un, on n’a pas cité l’intelligence artificielle, très étonnant quand même dans un exposé ! Au-delà de l’effet buzz et tout ça, l’intelligence artificielle transforme nos métiers, évidemment, comme pour tout le monde. En interne les gars me disent : « Ne dis pas intelligence artificielle, il faut dire machine learning, c’est quand même beaucoup plus sérieux ! » Bon ! Machine learning. Pour les défenseurs comme nous c’est une vraie révolution parce qu’un de nos métiers c’est le métier de la détection. On voit passer des tas de flux colossaux et tout çà, et là-dedans, dans cette immense botte de foin, il faut trouver la micro-aiguille qui trahit peut-être une attaque. Ça vraiment, si ce n’est pas un champ d’application formidable pour l’intelligence artificielle, je ne comprends plus rien !
À l’inverse, pour les attaquants, on voit certains attaquants qui aujourd’hui, manifestement, ne sont plus des gens derrière leur clavier. Ces mécanismes d’automatisation plutôt malins sont en train de se mettre en œuvre.
Et puis il y a un troisième sujet qui est beaucoup plus fin sur l’intelligence artificielle, je ne sais pas trop où le classer d’ailleurs, c’est la sécurité même de ces IA. Je ne sais pas trop comment on fait ça, c’est un sujet qui dépasse complètement nos compétences. Nous, ce qu’on apporte, c’est quelque part notre esprit un peu pervers : à quel point on peut empoisonner un mécanisme d’apprentissage ? On trouve déjà plein de trucs sur Internet, les trucs de reconnaissance d’image. C’est très facile de faire passer un pingouin pour une autruche ou n’importe quoi pour n’importe quoi. Alors que, pour un humain, non ! Et est-ce qu’il est possible avec un nombre limité de données empoisonnées d’aller modifier, de manière importante, structurellement, un apprentissage ? La réponse est oui, clairement. Donc comment est-ce qu’on fait pour éviter ça ? C’est un vrai sujet extrêmement complexe.

Le sujet du vote est un sujet que j’aime beaucoup, parce que c’est très compliqué de faire du vote électronique, pour plein de raisons. Ça revient un peu sur les règles de sécurité. La situation en France, aujourd’hui : les machines à voter existent, peut-être que quand vous votez vous votez sur une machine électronique, informatique, je ne sais pas comment dire. En fait, cette autorisation existe depuis assez longtemps, c’est prévu par la loi depuis longtemps. Il y a eu un moratoire, en 2007 ou 2008, qui a dit « on commence à avoir un doute sur la sécurité de ces machines, donc ceux qui n’en ont pas acheté n’ont plus le droit d’en acheter et ceux qui en ont acheté vous n’avez plus le droit d’y toucher, mais vous avez le droit de les utiliser ! » Cherchez l’erreur dans cette phrase ! C’était en 2008 ; on est en 2019, ces machines sont les mêmes qu’en 2008, voire beaucoup plus anciennes ; vous n’avez pas le droit d’y toucher donc elles ne sont pas mises à jour. C’est exceptionnel, ces machines ! Donc on a un vrai souci avec ça, qui va être compliqué et qui se repose à chaque élection.
Et puis il y a le vote des Français de l’Étranger, le vote par Internet, là c’est vraiment très compliqué. Il y a un peu un paradoxe. En 2012 on l’a fait pour les Français de l’Étranger malgré les trous qu’il y avait. En 2017 on ne l’a pas fait pour les législatives, c’est uniquement pour les législatives aujourd’hui, pour limiter la catastrophe s’il y a un problème. En 2017, je suis allé voir les autorités en disant « ce n’est pas raisonnable, on ne peut y aller ». Ça n’a pas été la folle ambiance, évidemment ! Parce que évidement, d’un point politique, vis-à-vis des électeurs, on a l’impression d’une régression et c’est très dur à comprendre.

J’ai été trop long, il y a plein de choses que je voulais vous dire, je ne vous les dirais pas !

Organisateur : Il me semble qu’à sept heures il y a la séance de questions, tu peux y aller.

Guillaume Poupard : Deux mots alors, quand même.
Une fois qu’on a bien peur et qu’on a pris conscience que tout cela est très complexe, j’ai dit que je voulais vous convaincre qu’on sait se protéger.
C’est un peu frustrant. Au-delà des guides, vous allez sur ssi.gouv.fr, il y a plein de guides9. Ça va des trucs absolument élémentaires plutôt pour les particuliers à des trucs de haut niveau. Donc il y a ce que j’appelle la bibliothèque rose, la bibliothèque verte et tout ça, en souvenir des livres de nos enfances.

Il y a un truc assez facile d’accès qui est déjà assez sérieux qu’on a fait avec la CPME, l’organisation des petites et moyennes entreprises, qui dit « eh bien voilà, vous n’êtes pas des experts en cybersécurité, vous ne le serez jamais, voilà 12 règles à appliquer ! » Je vous encourage à aller voir ce guideGuide des bonnes pratiques de l'informatique - 12 règles essentielles pour sécuriser vos équipements numériques]. Déjà quand on fait ça, on évite tout le tout venant en termes d’attaque, ce n’est déjà pas mal ! Si c’est la NSA qui en a après vous, ça ne suffit pas, c’est une évidence, mais ce n’est déjà pas mal.
Là-dedans on va retrouver attention à vos mots de passe, classique, attention à tout ce qui est connexion USB, à ces choses-là, attention à la séparation des usages. Historiquement, à l’ANSSI, on se bat contre le BYOD, le bring your own device, cette idée assez étonnante que les employés, les collaborateurs, vont venir avec leur PC, avec leur téléphone et ainsi de suite, persos, et vont travailler avec dans le cadre du réseau de l’entreprise. Pour ceux qui veulent faire de la sécurité en entreprise, bon courage ! Chacun arrive avec son bazar et il faut que l’ensemble soit sécurisé. Pareil, je pense qu’on doit pouvoir démontrer que ce n’est pas faisable cette affaire-là. Et pourtant c’est une idée un peu naïve parce qu’on se dit que ça va faire faire des économies et, en plus, les utilisateurs sont ravis. Ils sont ravis ! Moi j’aimerais bien pouvoir utiliser mon téléphone perso pour travailler parce que je n’aurais qu’un téléphone, je n’aurais pas à jongler et tout. Simplement on ne sait pas faire et ce n’est pas raisonnable.
Attention à ce que vous téléchargez, attention aux mails et tout.
Tout ça ce ne sont pas des trucs absolus, c’est-à-dire que si vous le faites scrupuleusement vous ne serez pas pour autant 100% sécurisés, mais c’est tout cela qui crée une hygiène informatique, qu’il va bien finir par falloir apprendre notamment à l’école parce que c’est avant tout à l’école qu’on apprend les choses. Eh bien il va falloir apprendre ces choses-là parce que sans cette hygiène, sans cette base élémentaire, vous pouvez faire des choses extrêmement compliquées derrière, vous pouvez faire de la très belle science, vous pouvez faire de la très belle technique, de la technique très chère, s’il n’y a pas l’hygiène de base, comme on a mis des siècles à l’apprendre en médecine, eh bien tout ça est ruiné. Vous pouvez les meilleurs vaccins au monde et tout ça, ceux qui ne lavent jamais les mains et ainsi de suite, ils seront malades quand même.

Deuxième page de pub, on a fait une plateforme qui s’appelle cybermalveillance.gouv.fr10. Si vous avez un problème, si vous voulez vous renseigner, si vous avez quelqu’un qui a un problème, vous l’envoyez là-dessus. Ce n’est pas l’ANSSI, c’est quelque chose qui est à l’extérieur, c’est quelque chose qui est fait plutôt pour les PME et pour les individus. Vous allez trouver de la sensibilisation, donc cybermalveillance.gouv.fr, des messages très simples qui expliquent les bases, donc cette hygiène dont je parlais.
Également en cas de problème, le jour où vous avez un problème chez vous, ça peut vous arriver, évidemment il faut aller porter plainte mais ce n’est pas le policier ou le gendarme qui va réparer votre PC, ce n’est pas son métier. Pareil, quand vous êtes cambriolé ils vont venir faire les constats, ils vont venir prendre la plainte, mais ils ne vont pas réparer la porte, ce n’est pas leur métier. Cette plateforme vous met en relation avec des prestataires informatiques, plutôt locaux, qui ont signé une charte et qui peuvent vous aider. Ce n’est pas toujours magique, mais si vous avez des sauvegardes, ils peuvent faire de leur mieux, quelque part, donc on peut trouver de l’aide pratique, comme ça. Ça n’existait pas jusque-là. C’est une manière d’apporter un peu de concret positif pour les gens qui sont victimes et puis c’est également une manière, j’aimerais qu’il y ait plus de personnes qui y aillent, de faire de la prévention en amont parce qu’on est vraiment dans des domaines où, une fois encore, la meilleure défense c’est la défense.

Et puis je disais que la formation c’est vraiment un sujet absolument majeur. La formation à tous les niveaux. Former des experts en cybersécurité, évidemment c’est notre obsession parce qu’on veut les embaucher après. On arrive à embaucher des gens mais, de fait, il y a un décalage entre l’offre et la demande en termes de quantité parce que tout ça est allé très vite, objectivement. Quand on est pessimiste on peut même se dire que la situation s’aggrave puisqu’il y a de plus en plus d’experts, mais comme la demande croît encore plus vite, le gap continue à s’étendre, c’est un vrai problème.

Je pense à quelque chose d’absolument essentiel, c’est d’enfin apprendre systématiquement la sécurité aux gens qui font de l’informatique ou du numérique, parce qu’aujourd’hui on est dans une situation où il y a ceux qui développent, parfois n’importe comment, souvent n’importe comment, et ceux qui essayent de patcher tout ça et c’est totalement inefficace comme système. Quand on veut faire commercial on parle de security by design, la sécurité ça se pense dès le part, ça se construit dès le départ.
Quand on fait un beau système non-sécurisé et qu’on dit ce n’est pas grave je vais passer un avenant à tel industriel spécialisé et il va nous sécuriser ça par-dessus, ça ne marche pas. On a essayé dans tous les sens, on a payé des sommes folles pour les systèmes les plus critiques, ça ne marche pas. Il faut vraiment que ce soit ceux qui développent qui fassent en même temps de la sécurité et ça tout au long du cycle de vie, donc les mises à jour et tout ça et ça pose des tas de questions.

Dernier point. Le 12 novembre dernier, dans le cadre du Forum de Paris sur la Paix, c’était les commémorations du 11 novembre, vous vous souvenez peut-être de ça, l’Internet Governance Forum en parallèle, une semaine numérique, quelque chose de politiquement assez fort. Le président a fait l’appel de Paris pour la paix et la stabilité dans le cyberespace, un truc comme ça, un truc tout bizarre en apparence. Le fait de dire « écoutez, ce cyberespace, cet espace numérique, ce bien commun, il est devenu hyper-critique et on se doit collectivement, avec tous les gens de bonne volonté, de le sécuriser, de le stabiliser et de faire en sorte que ce soit un espace de paix ». Les esprits critiques disent : « C’est bon, les naïfs sont de retour à appeler à la paix à un moment où, au contraire, on a plutôt une course aux armements qui est en train de se produire et des agressions qui sont de plus en plus violentes. »systématiquement
C’est quand même important d’y revenir, parce qu’évidemment, c’est tout sauf naïf. Ça veut dire quoi ? Ça veut dire deux choses.
Ça veut d’abord dire qu’il faut dès maintenant préparer le jour d’après. On va avoir des attaques qu’on n’a pas encore vues, des attaques qui seront inacceptables, intolérables, je ne sais pas lesquelles, mais on peut malheureusement faire plein d’hypothèses et plein de scénarios. Quand on se sera mis d’accord, pour le coup c’est à l’échelle mondiale tout ça, il ne se suffit pas de se mettre d’accord entre quelques pays like-minded, qui pensent pareil, il y en a d'ailleurspeu qui pensent pareil. Non ! Il faut vraiment tous ensemble se mettre d’accord pour dire non, il y a des règles, il y a une sorte de droit international qui s’applique à l’espace numérique parce qu’autrement c’est le Far-West. C’est une expression que je prends souvent, c’est un Far-West avec des cow-boys armés qui se baladent, qui tirent dans tous les sens, qui ont même un bandeau sur les yeux pour faire le problème d’attribution, tout le monde tire sur tout le monde et à la fin il n’y a plus que des victimes. Ça c‘est la situation vers laquelle on va et qui est totalement inacceptable.
Donc savoir dire non. Cet espace numérique, ce bien commun, on doit le sécuriser, c’est notre intérêt commun tout simplement. Ce n’est pas du tout des belles idées ni de la philanthropie, c’est juste de l’intérêt général. Et pour ça, pour le sécuriser, eh bien chacun est responsable : les États sont responsables, les utilisateurs sont responsables, les fournisseurs sont responsables.
Quand on tire la ficelle, il y a plein de choses qui viennent. Ça veut dire par exemple, pour ceux qui développent des systèmes avec de l’informatique à l’intérieur, eh bien dorénavant il faut avoir des règles élémentaires qui, énoncées comme ça, paraissent triviales, mais qui ne sont pas appliquées aujourd’hui. Par exemple la sécurité elle est par défaut, la sécurité ce n’est pas une option qu’on paye en plus. Les mises à jour c’est par défaut. Il est hors de question de payer pour avoir des mises à jour, notamment de sécurité. Des mises à jour fonctionnelles et tout ça, pourquoi pas ?, qui sont le modèle économique, mais pour la sécurité non, c’est quelque chose qui doit faire partie de l’achat initial.
Et puis la sécurité doit être suivie tout le long du cycle de vie. Il est hors de question de faire un produit, comme la machine de tout à l’heure, et dire après ce n’est plus mon problème. Non, c’est le problème du fournisseur tout au long du cycle de vie. Et ça, ça a l’air évident de le dire, mais ce n’est pas trivial.
Et à l’inverse, c’est une responsabilité qui doit rester limitée. Quelqu’un aujourd’hui qui se fait attaquer parce qu’il a Windows XP, je suis désolé mais moi je pense que ce n’est pas la faute à Microsoft. On peut critiquer Microsoft sur pas mal d’aspects, mais ils ont prévenu, re-prévenu pendant des années « attention, à telle date on arrêtera le support et ainsi de suite » et il y avait largement le temps de migrer. Donc il y a une responsabilité qui n’est évidemment pas que sur toujours le même.

Et puis il y a un sujet qui est très compliqué c’est celui des vulnérabilités. Nous on est convaincus qu’il faut empêcher une sorte de commerce des vulnérabilités informatiques de se développer. C’est facile à dire, c’est très compliqué à faire parce que, évidemment, il y a un marché, il y a des offrants et des demandeurs, donc le marché est là. Ce marché est un marché qui est dématérialisé donc qui est très difficile à contrôler. Quand vous voulez contrôler de l’armement, si vous voyez passer un char, normalement ça se remarque. Une vulnérabilité informatique c’est en pièce jointe avec le mail et puis si c’est bien chiffré, même avec des moyens que nos démocraties n’ont pas, heureusement, de toute manière ça passe inaperçu. Il faut empêcher ce commerce de vulnérabilités, ça fait également partie de ce qu’on pense être très important pour stabiliser le cyberespace et éviter que ça devienne un Far-West.

Et puis, dernière chose, il faut vraiment préserver l’usage de la violence, de la violence légitime, comme j’appelle ça, et interdire le fait d’utiliser, même pour de bonnes raisons, des moyens offensifs. Je laisse de côté l’audit, l’open test et tout ça, ça peut s’encadrer, mais notamment une notion absolument abominable qui circule dans certain milieux c’est la notion de hack-back : je suis attaqué, je me défends, je contre-attaque, donc là c’est n’importe quoi parce qu’on est à peu près sûr de contre-attaquer sur quelqu’un est lui-même une victime. Quand on explique ça en France les gens disent « oui, c’est évident ». Aux États-Unis, autre perception de l’autodéfense et de l’usage des armes, eh bien non, il y a plein de personnes qui pensent que, de toute manière, l’État ne sera jamais capable de les défendre, que c’est à eux de se défendre, donc ils vont s’armer et dès qu’ils vont être attaqués, ils vont contre-attaquer. Ça c’est le début du grand n’importe quoi si on part là-dedans.

Je m’arrête là. Je vous dis juste la devise de l’ANSSI pour cette année, c’est tous connectés, tous impliqués, tous responsables.
Tous connectés oui, dans notre vie personnelle, dans notre vie professionnelle.
Tous impliqués oui, parce qu’on est de plus en plus des acteurs de ces mondes numériques, clairement, parfois très acteurs évidemment.
Et tous responsables parce qu’on a un rôle à jouer pour que cette sécurité soit garante du fait que c’est le bon côté du numérique qui va se développer et pas tous ces trucs atroces que je vous ai dits pendant une heure.

Je vous remercie beaucoup.

[Applaudissements]

Pages