APRIL

S'abonner à flux APRIL
L'April a pour objectifs de promouvoir et défendre le logiciel libre et ses acteurs.
Mis à jour : il y a 11 min 26 sec

Lettre d'information publique de l'April du 1er juin 2018

ven, 06/01/2018 - 07:00

Bonjour,

L'April a désormais son émission sur radio Cause Commune (diffusion sur 93.1 sur la bande FM en Île-de-France et sur le site web de la radio). La 1ère émission a été diffusée mardi 29 mai 2018. Le podcast ainsi que toutes les références citées sont disponibles. Je vous souhaite une bonne écoute. Et rendez-vous mardi 5 juin 2018 de 15h30 à 17h00 pour la 2e émission.

Le processus de révision de la directive sur le droit d'auteur, qui pourrait affecter notamment les plateformes de développement logiciel, arrive bientôt à son terme avec un vote en commission des affaires juridiques les 20 et 21 juin. Pour peser sur les débats, vous pouvez signer la lettre ouverte « Sauvons le partage de code ! ».

Le groupe Transcriptions vous offre quatorze nouvelles transcriptions.

N'oubliez pas d'écouter les dernières éditions du Décryptualité.

Ce week-end, l'April sera présente dans le Village du Libre aux Geek Faëries 2018 dans le château de Selles-sur-Cher (Loir-et-Cher).

L'April tiendra un stand dans le Village des Alternatives les 9 et 10 juin à Étampes (en Essonne), à l'occasion d'une étape du Tour Alternatiba. Nous avons besoin d'aide pour animer notre stand. Si vous êtes disponible, ne serait-ce que pour quelques heures, n'hésitez pas à vous inscrire sur la page wiki dédiée.

L'organisation des Rencontres mondiales du logiciel libre (RMLL) a lancé un appel à dons qui permettra de défrayer le déplacement des personnes qui interviendront et la captation des activités.

Consultez la lettre publique ci-dessous pour toutes les autres informations et notamment la revue de presse qui propose une vingtaine d'articles.

Librement,
Frédéric Couchet
délégué général de l'April.

Si vous voulez nous soutenir, vous pouvez faire un don ou adhérer à l'association.

Sauvons le partage de code ! Appel à signature de la lettre ouverte « Save Code Share »

L'actuel projet de réforme du droit d'auteur de l'Union européenne fait peser des risques sur le logiciel libre et les communautés de développeurs et développeuses. Pour agir, vous pouvez signer la lettre ouverte « Sauvons le partage de code ! ».

Émission Libre à vous ! diffusée sur radio Cause Commune - podcast disponible

L'April a désormais son émission sur radio Cause Commune (diffusion sur 93.1 sur la bande FM en Île-de-France et sur le site web de la radio. L'ambition de Libre à vous ! est d'être une émission d'explications, d'échanges et d'actions concernant les dossiers politiques et juridiques que l'April traite et les actions qu'elle mène. Une partie de l'émission sera également consacrée aux actualités et actions de type sensibilisation. Elle sera diffusée en direct chaque 1er mardi du mois de 15h30 à 17h00.

Exceptionnellement, la 1ère émission a été enregistrée puis diffusée mardi 29 mai. Le podcast ainsi que toutes les références citées sont disponibles. Je vous souhaite une bonne écoute.

La deuxième émission sera diffusée en direct mardi 5 juin 2018 de 15h30 à 17h00. Nous parlerons principalement de la révision de la directive droit d'auteur.

toc_collapse=0; Sommaire 
  1. Sauvons le partage de code ! Appel à signature de la lettre ouverte « Save Code Share »
  2. Émission Libre à vous ! diffusée sur radio Cause Commune - podcast disponible
  3. Dossiers, campagnes et projets
    1. Open Bar Microsoft/Défense : l'enquête de la télévision publique allemande (ARD) à présent disponible en anglais
    2. Chapril Camp les 5 et 6 mai 2018 au local à Paris
    3. Quatorze nouvelles transcriptions
    4. Décryptualité
    5. Appel à participation et à dons des RMLL
    6. Revue de presse
  4. Conférences, événements
    1. Événements à venir
    2. Événements passés
  5. Vie associative
    1. Revue hebdomadaire
    2. Adhésions
  6. Soutenir l'association
  7. Rejoindre l'association à titre individuel
  8. Rejoindre l'association en tant que personne morale
  9. Archives
Dossiers, campagnes et projets Open Bar Microsoft/Défense : l'enquête de la télévision publique allemande (ARD) à présent disponible en anglais

En février 2018 l'ARD, le service public de radiodiffusion allemande, diffusait une enquête sur la dépendance des administrations publiques vis-à-vis de Microsoft. Une partie de cette enquête est consacrée à l'Open Bar Microsoft/Défense avec, notamment, des interviews de la sénatrice Joëlle Garriaud-Maylam, de Leïla Miñano, journaliste, et d'Étienne Gonnu de l'April. La vidéo est à présent disponible en anglais.

Chapril Camp les 5 et 6 mai 2018 au local à Paris

Le site chapril.org sera la contribution de l'April au Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (CHATONS). Le projet vise à rassembler des acteurs proposant des services en ligne libres, éthiques, décentralisés et solidaires afin de permettre aux utilisateurs de trouver - rapidement - des alternatives aux produits de Google, entre autres, mais respectueux de leurs données et de leur vie privée.

Un camp a eu lieu au local de l'April les 5 et 6 mai 2018 pour finaliser la mise en place des premiers services déjà en cours d'installation, fiabiliser l'infrastructure, les procédures de bascule, rédiger les CGU (conditions générales d'utilisation). Encore un peu de patience, le site va ouvrir très prochainement !

Quatorze nouvelles transcriptions

Le groupe Transcriptions de l'April vous offre de la lecture avec quatorze nouvelles transcriptions :

Décryptualité

Depuis le 20 février 2017, date du premier Décryptualité, un petit groupe de membres de l’April se réunit chaque semaine : « On a eu envie de faire quelque chose d’un petit peu différent de la revue de presse de l’April, qui soit un petit peu plus large ». Dans un format d’une quinzaine de minutes, les sujets concernant l’actualité informatique sont commentés de façon simple et accessible au plus grand nombre.

Appel à participation et à dons des RMLL

Les Rencontres mondiales du logiciel libre (RMLL) se tiendront du 7 au 12 juillet 2018 à Strasbourg. Si vous souhaitez aider sur la préparation et les coulisses des RMLL 2018  consulter l'appel à besoin d'aide.

L'équipe d'organisation a également lancé un appel à dons qui permettra de défrayer le déplacement des personnes qui interviendront et la captation des activités.

Revue de presse

La revue de presse fait partie du travail de veille mené par l'April dans le cadre de son action de défense et de promotion du Logiciel Libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l'April.

Pour gérer cette revue de presse, un groupe de travail a été créé (vous pouvez en consulter la charte ici) ainsi qu'une liste de discussion rp@april.org où vous pouvez envoyer les liens vers des articles qui vous semblent intéressants.

La revue de presse est désormais également diffusée chaque semaine sur le site LinuxFr.org. Cette diffusion lui offre un lectorat plus large.

Il existe un flux RSS permettant de recevoir la revue de presse au fur et à mesure (rapidement et article par article donc).

Les derniers titres de la revue de presse :

Un Petit guide de la revue de presse est disponible pour ceux qui souhaitent contribuer.

Voir la page revue de presse sur le site pour le détail des articles.

Conférences, événements Événements à venir Événements passés Vie associative Revue hebdomadaire

Chaque vendredi, à midi pile, les permanents et les adhérents qui le souhaitent passent en revue les tâches et actions relatives à l'April dont ils ont la charge lors de la « revue hebdomadaire April » sur IRC (canal #april sur irc.freenode.net, accès avec un navigateur web). La durée est limitée, généralement un quart d'heure. Cela stimule les bonnes volontés, suscite des idées et des contributions, permet de suivre les activités des uns et des autres et éliminer un certain nombre de problèmes bloquants.

Une page décrivant le principe d'une revue hebdomadaire est en ligne.

Vous pouvez en savoir plus en consultant en ligne les archives des premières revues hebdomadaires, et notamment la synthèse de la revue du 4 mai 2018, la synthèse de la revue du 11 mai 2018, la synthèse de la revue du 25 mai 2018.

Adhésions

Au 1er juin 2018, l'association compte 4 148 adhérents (3 743 personnes physiques, 405 personnes morales).

Soutenir l'association

L'April a besoin de votre aide. Vous pouvez faire un don à l'association et participer ainsi au financement de nos actions.

Pour faire un don à l'association, rendez-vous à l'adresse suivante https://www.april.org/association/dons.html (il est possible de faire un don par chèque, virement, carte bancaire ou encore prélèvement automatique).

Pour tout renseignement n'hésitez pas à nous contacter.

Rejoindre l'association à titre individuel

Dans une association, l'adhésion est un acte volontaire. C'est aussi un acte politique car c'est manifester son soutien à l'objet de l'association ainsi qu'aux valeurs qui le sous-tendent. Une adhésion fait la différence en contribuant à atteindre les objectifs de l'association.

Adhérer à l'April permet :

  • de défendre collectivement un projet de société ;
  • de s'investir activement dans la vie de l'association à travers ses groupes de travail et ses actions ;
  • d'être informé régulièrement des événements logiciel libre ;
  • d'agir sur les institutions à travers un partenaire incontournable ;
  • de soutenir financièrement les actions de l'association.

Il est possible d'aider l'association en lui donnant de son temps ou de son argent. Toutes les contributions sont les bienvenues.

Pour les hésitants, nous avons mis en ligne les réponses à de fausses idées classiques.

Pour adhérer à l'April, vous pouvez remplir le formulaire en ligne.

Pour tout renseignement, n'hésitez pas à nous contacter.

Rejoindre l'association en tant que personne morale

Que vous soyez une entreprise, une collectivité ou une association, adhérez pour participer activement aux décisions stratégiques qui vous concernent !

Votre structure a besoin de tirer le meilleur parti du logiciel libre et pour défendre ses intérêts, elle doit :

  • exercer une veille permanente pour se tenir informée des opportunités et des menaces ;
  • constituer et entretenir des réseaux relationnels institutionnels ;
  • être éclairée sur les contextes juridiques et stratégiques ;
  • contribuer à la défense de l'informatique libre face aux acteurs qui lui sont hostiles ;
  • mieux faire connaître et valoriser son action.

April est au cœur des grandes évolutions du logiciel libre. Adhérer à April permet :

  • de défendre collectivement un projet de société ;
  • de s'investir activement dans la vie de l'association à travers ses groupes de travail et ses actions ;
  • d'être informé régulièrement des événements logiciel libre ;
  • d'agir sur les institutions à travers un partenaire incontournable ;
  • de financer ou cofinancer des actions stratégiques.

Pour adhérer à l'April, il suffit de vous rendre à l'adresse suivante : adhérant dès maintenant à l'April.

Pour tout renseignement n'hésitez pas à nous contacter.

Archives

Pour recevoir automatiquement par courriel cette lettre, inscrivez-vous à la liste de diffusion

Les archives de la lettre sont disponibles en ligne.

L'April présente au Village des Alternatives à Étampes (Tour Alternatiba)

jeu, 05/31/2018 - 16:05
Début: 9 Juin 2018 - 10:18Fin: 10 Juin 2018 - 10:18

Le mouvement citoyen Alternatiba, l'association Les Amis de la Terre France et le mouvement populaire ANV-COP21 organisent un Tour Alternatiba. Du 9 juin au 6 octobre 2018, le tour s'élancera sur des vélos multiplaces pour un périple de 5 800 km parcourant la France et les pays frontaliers en 200 étapes, afin de promouvoir les alternatives au dérèglement climatique.

L'April tiendra un stand au Village des Alternatives le week-end du 9 et 10 juin 2018, à l'occasion de l'étape d'Étampes (91).

Si vous souhaitez participer à l'animation du stand, n'hésitez pas à vous inscrire sur notre wiki.

L'usage bien réel de la position dominante des GAFAM - Transcription Décryptualité du 28 mai 2018

mer, 05/30/2018 - 17:05


Titre : Décryptualité du 28 mai 2018 - L'usage bien réel de la position dominante des GAFAM
Intervenants : Mag - Nico - Luc
Lieu : April - Studio d'enregistrement
Date : mai 2018
Durée : 13 min 30
Écouter ou télécharger le podcast
Revue de presse pour la semaine 21 de l'année 2018
Licence de la transcription : Verbatim
Illustration : Golden lion Wikimedia Commons ; Licence Creative Commons BY-SA 3.0.
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas forcément celles de l'April.

Description

Augmentation de tarifs, report de responsabilité sur le RGPD sur des plus petits, l'usage bien réel de la position dominante des GAFAM

Transcription

Luc : Décryptualité.

Nico : Le podcast qui décrypte l’actualité des libertés numériques.

Luc : Semaine 21. Salut Mag.

Mag : Salut Nico.

Nico : Salut Luc.

Luc : Pas de Manu cette semaine. Il est puni ! Non, il n’est pas puni, il est parti en famille.

Mag : C’était la fête des mères hier.

Luc : Et oui ! Donc il est parti voir sa maman, mais il nous a quand même préparé une petite revue de presse.

Mag : Une belle revue de presse qui commence par Developpez.com, « Google et Facebook sous le coup de 4 accusations dans 4 pays pour avoir enfreint le RGPD », par Stéphane le Calme.

Nico : C’est un petit ami à nous qu’on connaît bien, Max Schrems, qui avait déjà attaqué Facebook par le passé et qui, du coup, revient pour faire la peau aux GAFAM via le RGPD ; il nous promet encore pas mal d’attaques en justice et on verra bien ce que ça donnera.

Mag : On en reparle tout à l’heure d’ailleurs. Les Yeux du Monde, « La bataille pour le logiciel libre en Afrique », par Loup Viallet.

Nico : Un article qui fait le point, un peu, sur l’état du logiciel libre en Afrique et ce que ça apporte en termes économiques ou autres pour faciliter le développement ; ça explique un peu tout le processus et ce qui se passe là-bas exactement.

Mag : Il faudrait qu’on en reparle plus en détail une prochaine fois.

Luc : Oui. Tout à fait.

Mag : Commentçamarche.net, « Des ateliers pour préparer la fête des libertés numériques », par Perrine Tiberghien.

Nico : C’est une initiative qui s’est montée pour la publication du RGPD, où il y a eu pas mal de petits événements pour expliquer comment on pouvait reprendre le contrôle de sa vie numérique. Ça a été organisé dans un peu toute la France ces derniers temps.

Mag : Le Journal du CM, « Lumière sur la licence Creative Commons », par Guillaume Guersan.

Nico : Un article qui fait le point sur ce que c’est les Creative Commons et qui explique tout le détail : qu’est-ce que c’est une licence Creative Commons, non commerciale, non dérivative, etc. Donc si vous voulez choisir une licence, lisez cet article-là !

Luc : Sachant que dans les Creative Commons il y a des licences libres au sens strict et d’autres qui ne le sont pas, donc c’est important de savoir faire la différence.

Mag : ZDNet France, « Montréal précise son engagement pour le logiciel libre », par Thierry Noisette.

Nico : On parle régulièrement de Montréal dans nos revues de presse et là ça fait le bilan de ce qui se passe exactement là-bas ; pourquoi ils ont fait les choix de l’open source ou du Libre en termes de solutions, en termes de renouvellement de leur parc informatique et ça montre la vision qu’ils ont pour les dix prochaines années.

Mag : Et le dernier article : Le Monde.fr, « Le ministère de l’enseignement supérieur dévoile l’algorithme principal de Parcoursup », par Soazig Le Nevé.

Nico : Ça fait suite à ce dont on a parlé la semaine dernière, sur la publication de Parcoursup. Ça explique comment ils ont fait leurs choix de publication ; qu’est-ce que ça implique pour les étudiants maintenant et aussi les problèmes qui restent encore à résoudre avec cet algorithme.

Luc : Notre sujet de la semaine ne sera que partiellement couvert par la revue de presse. Il y a d’autres choses qui se sont passées qu’on a trouvées assez intéressantes, notamment du côté de ces GAFAM que nous adorons critiquer, et notamment du côté de Google pour son service bien connu, Google Maps.

Nico : C’est ça. Ils ont unilatéralement décidé de changer leur politique tarifaire.

Mag : En accord avec eux-mêmes !

Nico : Voilà c’est ça. Du coup tout le monde s’est retrouvé un peu à court parce qu’ils ont annoncé ça en disant « voilà, on revoie complètement notre politique d’usage gratuit », enfin ce qu’ils appellent le fair use, donc quand vous ne payez pas pour consommer leurs services, et ils ont annoncé des tarifs qui ont fait fois 50, fois 100, fois 1 000 en fonction de ce que vous utilisez.

Luc : En fonction des services.

Mag : Mais comment ça peut être fois 50, quand c’est rien ?

Nico : En fait, c’est parce que ce n’était pas vraiment rien ; c’était rien quand vous étiez en dessous d’un certain volume de pages consommées. En gros c’était aux alentours de 10 000 ou 20 000 pages vues par jour. En fait ils ont transformé le « par jour » en « par mois » ; du coup, il y en plein qui étaient 10 000 requêtes par jour.

Luc : L’inverse tu veux dire !

Nico : Non, non parce que c’étaient 10 000 par jour, donc ils avaient droit à 300 000 requêtes dans le mois et là, en fait, maintenant vous n’avez plus le droit qu’à 10 000 requêtes dans le mois et du coup, vous allez vous retrouver avec des factures exorbitantes. Avant vous étiez à 0 et des exemples qu’ils donnent montrent que vous passez de 0 à 4 000 dollars par mois. Donc tous les petits services qui utilisaient Google Maps, comme ça, qui ne voulaient pas payer ou parce qu’ils n’avaient pas un usage très important de ce service, eh bien vont devoir le quitter parce que c’est carrément trop cher pour la plupart des utilisateurs.

Luc : Moi je bosse pour un éditeur informatique qui fait un usage assez important de Google Maps, et ce ne sont pas simplement des petites boîtes, il y a plein de PME. Quand Google est arrivé avec ce service de cartos, il était facile à utiliser – il marche bien, on ne peut pas nier ça – du coup il y a plein de boîtes comme la mienne qui ont dit « c’est facile », à l’époque c’était totalement gratuit ou presque, il fallait vraiment y aller pour payer, du coup c’était facile, c’était rapide et c’était confortable. Du coup plein de gens s’y sont mis, y compris des entreprises qui ont les moyens.

Mag : Y compris notre gouvernement sur les sites.

Luc : Voilà. Tout le monde en a mis partout et puis, au bout de quelques années, ils ont déjà augmenté les tarifs une première fois. Et c’est un aphorisme qu’on aime bien utiliser dans le logiciel propriétaire, mais qui est tout aussi valable pour les services, c’est : « C’est comme la drogue : la première dose est gratuite ! ». Donc en gros on a un service qui est un service de qualité. On le met pas cher, voire gratos, pour que les gens viennent ; ils construisent des solutions dessus, ils sont dépendants ; et une fois qu’on a acquis un réservoir de clients potentiels suffisamment important et qui sont dépendants, qui ne peuvent plus partir, là paf ! on monte les tarifs et ils en sont donc à leur deuxième montée ! Et puis là, ils y sont allés manifestement comme des bourrins ; ils sont en train de presser le citron et dire « eh bien maintenant, on va ramasser le pognon ! »

Nico : Après c’est aussi un avantage pour les solutions libres puisque du coup OpenStreetMap1 a repris le flambeau là-dessus parce que tous les services qui ne veulent pas payer, en tout cas pas ces montants-là à Google, commencent à migrer vers OpenStreetMap pour intégrer les pages, les maps, les cartes à leurs sites internet et se passer, du coup, de Google.

Luc : Il y a vraiment eu quelque chose de raté de ce côté-là, parce que moi, en tant que bon libriste, j’avais fait du boulot en interne au niveau de ma boîte, il y a de ça aller cinq-six-sept ans en disant « OpenStreetMap est en train de monter en force. On ne demande pas d’invertir des sommes colossales dedans, mais au moins de commencer à mettre des billes parce que c’est intéressant de se développer un fond de cartos qui soit à nous ». En plus on a des concurrents, mais ce n’est pas là-dessus qu’on se fait concurrence, les concurrents aussi mettent du Google Maps.

Du coup on se retrouve dans une situation où, parce que c’était facile et qu’on n’a jamais voulu investir sur une solution alternative et qu’on n’a pas voulu voir à long terme, on se retrouve tous à égalité, entre guillemets, « à devoir payer des fortunes ». Ce qui fait que les solutions qui sont vendues par toutes les boîtes de la branche, tous les gens qui utilisent ça, elles deviennent non rentables ou beaucoup plus chères donc plus difficiles à vendre, etc. Donc là il y a clairement un choix, entre guillemets, « de confort et de pragmatisme ». C’est l’idée qui vient « Oh, ça marche, je suis pragmatique, je prends la solution paf ! paf ! » [prononcé avec une voix de manager] Et au final, voilà le résultat !

Nico : Ça pose aussi le problème, en fait, des business modèles, parce que Google doit aussi très bien savoir ce qu’ils font et ils ont dû lancer le service Google Maps gratuitement pour que tout le monde se lance dedans, que tout le monde l’installe partout et que ce soit vraiment propagé dans tous les coins. Et une fois que tout le monde est bien ferré, hop ! on change toutes les conditions, on change les tarifs, etc., et on ne peut plus sortir du marché. Parce que c’est trop coûteux en fait et qu’on va préférer payer 4 000 euros par mois que de prendre un développement supplémentaire pour tout migrer et refaire des tests avec OpenStreetMap, etc. C’est un marché ultra-captif et un peu piégeux. Il y a beaucoup de services en ce moment qui sont en train de passer d’un modèle gratuit à un modèle payant et les utilisateurs n’ont pas le choix que de suivre le mouvement, parce que ça leur coûte moins cher que de tout migrer.

Mag : Ça ressemble de plus en plus à du logiciel propriétaire tout ça, en fait.

Luc : C’est la même logique. Effectivement.

Mag : Ils ont imposé leur produit qui était gratuit. Ils ont maintenant un monopole total et ils en profitent.

Luc : Il n’y a pas qu’eux. On peut penser à un service comme Copains d’avant qui avait fait fureur il y a de ça dix-quinze ans.

Mag : Quoi ! [Rire]

Luc : Oui. Copains d’avant, c’était gratos, tout le monde pouvait s’inscrire, et une fois qu’ils ont accumulé plein de données qui sont les données des gens, eh bien ils les ont rendues payantes. Ils ont dit : « Maintenant si vous voulez vous abonner, si vous voulez prendre contact avec les gens, etc., eh bien il faut raquer ». Ça c’est un grand classique et c’est quand même assez malheureux de voir que tout le monde continue à mettre les pieds dedans et à ne pas voir le coup venir, même si c’est un coup sur dix ans.

Mag : Tu m’étonnes que les gens se méfient !

Nico : Il y a eu un peu dans le même genre, on en parlait avec Max Schrems et le RGPD [Règlement général sur la protection des données] où les grosses boîtes type GAFAM ont eu aussi une position dominante dont ils ont pu abuser puisque quand il y a une relation prestataire client habituelle, le client a normalement le moyen de mettre la pression sur son prestataire pour qu’il fasse le boulot.

Luc : Puisque dans le RGPD il y a cette idée qu’on ne peut pas dire « ah ben ce n’est pas chez moi, c’est ailleurs ». Dès lors qu’on a un fournisseur, un prestataire, qu’on est en lien avec quelqu’un, on doit s’assurer qu’il soit en règle avec le RGPD.

Nico : Voilà. Et du coup, les boîtes qui ne sont pas les GAFAM, eh bien les clients qui ne sont pas les clients finaux, qui sont les clients intermédiaires, donc des entreprises qui utilisent d’autres services, ont pu faire pression sur leurs prestataires pour se mettre en conformité avec le RGPD dans le sens qui les arrangeait, alors que Google a dit : « Non, nous on fera le RGPD comme ça ou plutôt on ne fera pas le RGPD du tout. On abuse de notre position dominante pour forcer le contrat dans le sens qui nous arrange ».

Luc : C’est-à-dire, en gros, à tous les gens qui utilisent des services Google ils ont dit : « Eh bien c’est à vous de vous assurer que les données sont propres ; nous on ne fait que les récupérer et tout est de votre responsabilité. »

Nico : C’est ça ! Et donc, si vous voulez continuer à utiliser Google, vous avez beaucoup de boulot de votre côté, voire des impossibilités de compatibilité avec le RGPD. Mais ils disent : « Nous on ne fera absolument rien, on ne va pas bosser gratuitement pour vous » ; donc ils aiment bien filer des services gratuits, mais ils ne fournissent pas, eux, de prestations gratuites.

Mag : Pourtant ils ont les moyens !

Nico : Pourtant ils auraient les moyens, mais c’est vrai qu’après ça casse le business complètement.

Luc : Leurs prestations ne sont pas toutes totalement gratuites. Quand on voit le captcha, là, le truc qui dit « je ne suis pas un robot » et on doit signaler sur une photo toutes les devantures de magasin, tous les panneaux de circulation, on travaille gratos pour Google parce que c’est avec ça qu’ils alimentent notamment leur voiture autonome ; et leur algorithme super intelligent n’est pas encore assez intelligent pour se débrouiller sans que des humains aillent cataloguer.

Mag : Le captcha ce n’est pas forcément pour ça. Puisqu’il y a aussi l’image où il y a un papillon, l’image où il y a un chat !

Luc : Oui, mais après il y a d’autres business de reconnaissance de formes qui sont intéressés.

Nico : Maintenant ils commencent à entraîner leurs drones de militaires aussi avec les Google captchas pour savoir sur qui tirer. Pareil, il y en a plein qui ont halluciné quand ils ont vu ça passer ; ils ont dit : « Mais attendez, nous on ne veut pas mettre ça sur notre service, on ne veut pas entraîner des drones de guerre. » Eh bien ouais, mais Google a dit : « Vous n’avez pas le choix. Soit vous travaillez pour nous la-dessus, soit vous quittez le service et on ne vous laisse pas d’autre sortie ».

Mag : Il n’y a pas des captchas libres pour lesquels on pourrait faire de la pub ?

Nico : Il y a des alternatives qui ont commencé à arriver. Je n’ai plus le nom en tête, je me demande si ce n’est pas « librecaptcha » d’ailleurs, qui font l’équivalent de captchas en version libre et qui fonctionnent pareil et qui évitent de passer par les GAFAM.

Luc : Donc on voit comment le fait d’être important, lourd et d’être en position de force – comme toujours, ce n’est pas un truc qui est particulièrement lié au numérique ou à l’informatique –, finalement ça permet d’imposer aux autres sa façon de faire, sa volonté, ses tarifs, ses conditions.

Nico : Ouais, mais ça commence un peu à se voir beaucoup, en fait, depuis quelque temps. Il y a quand même pas mal de services, comme ça, qui changent un peu de positionnement, qui quittent le monde du tout gratuit pour enfermer les clients dedans, qui changent unilatéralement leur politique, qui n’a pas été aidée par le RGPD. Il y en beaucoup, par exemple Twitter qui vient de dire « moins de 16 ans vous n’avez pas le droit » et tout le monde s’est retrouvé le bec dans l’eau parce qu’on était ultra-dépendants de Twitter ou de Facebook pour faire de la com, pour faire de la publicité et là on a 25 % de notre audience qui vient de disparaître, comme ça, d’un trait de plume par des choix unilatéraux des GAFAM.

Luc : Encore un serial adminsys qui a fait du nettoyage. Et donc on parlait dans notre premier article de Max Schrems.

Nico : Max Schrems.

Luc : Max Schrems, qui est un Autrichien, qui s’était déjà distingué alors qu’il était étudiant en droit en allant titiller Facebook en disant « envoie-moi toutes mes données comme j’ai le droit de le demander. »

Mag : C’est en 2011 qu’il s’est attaqué à Facebook. Il avait déjà été actif en 2009 et là, effectivement, il avait reçu des cartons et des cartons et des cartons de papier parce que, forcément, Facebook lui avait envoyé du papier totalement inexploitable. Et heureusement, ça avait été reconnu comme inexploitable en 2015, quatre ans après, par la Cour de justice de l’Union européenne. En gros il dirige une initiative qui s’appelle Europe versus Facebook2 et, depuis des années, il est à la tête d’une association, d’un groupe de protection de la vie privée, noyb.eu, none of your business.eu.

Nico : C’est quand même lui qui avait fait tomber le Safe Harbor qui avait déclenché plein de bordel !

Luc : Le Safe Harbor, il faut rappeler quand même ce que c’est.

Nico : C’était un texte qui disait qu’en gros les États-Unis étaient conformes avec la loi européenne.

Luc : Et comme est entre copains, alors vous pouvez…

Nico : On est entre copains, vous pouvez envoyer toutes vos données là-bas et du coup ce truc-là était tombé grâce à Max Schrems qui avait justement montré, via les documents qu’il avait récupérés de Facebook, « Hé regardez, j’avais demandé la suppression de tel message et puis en fait c’est bizarre, je le revoie dans mes papiers. Est-ce que vous pouvez m’expliquer ça, ça, ça. » Et en plus, il avait donné pas mal de pistes à Facebook pour leur dire voilà ce que vous pouvez faire pour vous améliorer : chiffrez vos données, évitez de les envoyer aux États-Unis, mettez vos data centers en France ou en Europe et Facebook s’était complètement assis dessus. Donc il a été jusqu’au bout de sa démarche. Donc il a fait péter le Safe Harbor qui a donné lieu derrière au Privacy Shield qui est la suite du Safe Harbor mais du coup plus restreint, à e-Privacy qui est dans les cartons en ce moment au niveau de l’Europe et un peu au RGPD aussi derrière qui a dit : « Stop ! On va arrêter les conneries, quoi ! » Donc ça promet du lourd au niveau juridique ; je pense qu’il ne va pas lâcher le morceau.

Luc : Quelqu’un qui a de la suite dans les idées.

Nico : Voilà !

Mag : Et le mec, il ne porte pas plainte qu'en Autriche ; il porte plainte en Allemagne, en Belgique, en Irlande ; un peu partout.

Nico : Eh bien oui, il est citoyen européen, donc il profite de ses droits.

Luc : Et puis il a une associations.

Nico : Il a des associations.

Luc : Ils sont plusieurs en fait.

Nico : Ça risque d’être assez fun.

Mag : Méfiez-vous, il ne fait pas que porter plainte. À chaque fois qu’il s’en prend à Facebook – puisque manifestement lui son dada c’est Facebook – il propose des données, il propose d’autres alternatives comme, je ne sais pas, déplacer les données que Facebook retient, les mettre en Europe ; les chiffrer tant qu’à faire, quitte à les stocker autant les stocker correctement, ou même revoir la structure des entreprises. J’adorerais Facebook, imagine, « allez viens on va tout restructurer ! »

[Rires]

Luc : Ce que veut dire restructurer c’est souvent éclater en plusieurs entreprises plus petites. C'est souvent ça.

Nico : Oui. Et puis c’est surtout d’éviter le recoupement des données. Que chaque entreprise, ou en tout cas chaque entité, n’ait pas accès à l’intégralité des données de Facebook, mais à bien cloisonner ce qu’on fait et ne pas avoir tout à un seul endroit quoi !

Luc : On rappelle qu’en France La Quadrature du Net3 mène une initiative de ce type-là, consistant également à attaquer en justice les GAFAM. Donc allez sur leur site pour voir de quoi il retourne. On espère que toutes ces démarches juridiques vont porter leurs fruits. Max Schrems a déjà un certain passif derrière lui. Ça promet des moments très amusants. On a fait le tour à peu près. On se retrouve la semaine prochaine. Salut.

Mag : Salut.

Nico : Bonne semaine à tous.

Apéro April le 21 juin 2018 à Montpellier

mer, 05/30/2018 - 14:08
Début: 21 Juin 2018 - 18:18Fin: 21 Juin 2018 - 20:20 Un apéro April ?

Un apéro April consiste à se réunir physiquement afin de se rencontrer, de faire plus ample connaissance, d'échanger, de partager une verre et de quoi manger mais aussi de discuter sur l'actualité et les actions de l'April. Un apéro April est ouvert à toute personne qui souhaite venir, membre de l'April ou pas. N'hésitez pas à venir nous rencontrer.

Quand et quoi

Le prochain apéro à Montpellier aura lieu jeudi 21 juin 2018 à l'adresse suivante : Le Faubourg - 15, rue du Faubourg de Nîmes, 34000 Montpellier.

Pour tous les détails rendez-vous sur le site de Montpel’libre.

Vous pouvez aussi vous inscrire sur le pad.

Les Aprilapéro Montpellier auront lieu le 3e jeudi de chaque mois.

Émission « Libre à vous ! » diffusée mardi 29 mai 2018 sur radio Cause Commune

mar, 05/29/2018 - 15:30

La première émission Libre à vous ! de l'April a été diffusée sur la radio « Cause commune » mardi 29 mai 2018. Vous retrouverez sur cette page toutes les références citées pendant l'émission.

Écouter le podcast

--> toc_collapse=0; Sommaire 
  1. Les ambitions de l'émission Livre à vous !
  2. Personnes participantes
  3. Références pour la partie sensibilisation de l'émission
  4. Pauses musicales
  5. Audio « Le logiciel libre »
  6. Les références concernant le dossier « Open Bar » Microsoft/Ministère de la Défense
Les ambitions de l'émission Livre à vous !

La radio « Cause commune » a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons proposé de tenir une émission April intitulée Libre à vous ! d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission sera également consacrée aux actualités et actions de type sensibilisation.Ligne 1
L'émission Libre à vous ! sera principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées.Ligne 1
Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission mensuelle, qui sera diffusée en direct chaque 1er mardi du mois de 15h30 à 17h00.

N'hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi les points d'amélioration. Vous pouvez nous contacter par courriel, sur le webchat dédié à l'émission (mais nous n'y sommes pas forcément tout le temps) ou encore sur notre salon IRC (accès par webchat).

Personnes participantes

Les personnes qui ont participé à l'émission :

  • Frédéric Couchet, délégué général de l'April
  • Isabella Vanni, Coordinatrice vie associative et assistante projets de l'April
  • Joëlle Garriaud-Maylam, sénatrice des Français de l'étranger, des Français du monde et des Français établis hors de France, Secrétaire de la commission des affaires étrangères, de la défense et des forces armées
  • Étienne Gonnu, chargé de mission affaires publiques à l'April (depuis janvier 2016, et non pas 2006 comme indiqué de façon erronée pendant l'émission)
  • Marc Rees, rédacteur en chef de Next INpact
  • Olivier Grieco (en régie), coordination générale et direction d'antenne de Cause Commune
Références pour la partie sensibilisation de l'émission Pauses musicales

Les références pour les pauses musicales :

Audio « Le logiciel libre »

L'audio de présentation du logiciel libre est un extrait de la vidéo Le Logiciel Libre – Man #2. Une transcription est disponible.

Les références concernant le dossier « Open Bar » Microsoft/Ministère de la Défense

L'April a une page dédiée sur son site où vous pourrez retrouver les dernières actualités sur ce dossier. Si vous êtes déjà membre de l'April, vous pouvez également vous inscrire à la liste atelier, liste d'échange sur les différents dossiers institutionnels de l'association.

Références journalistiques

Autres références concernant l'Open Bar

Autres références institutionnelles

Décryptualité du 28 mai 2018 - L'usage bien réel de la position dominante des GAFAM

lun, 05/28/2018 - 22:51

Écouter ou télécharger le décryptualité du 28 mai 2018 (13 minutes)

    Augmentation de tarifs, report de responsabilité sur le RGPD sur des plus petits, l'usage bien réel de la position dominante des GAFAM
    Générique – La prose du pépère – Les Barons Freaks – Licence Art Libre (LAL)

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Revue de presse de l'April pour la semaine 21 de l'année 2018

lun, 05/28/2018 - 15:03

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

En podcast.

Sommaire de la revue de presse de l'April pour la semaine 21

[Developpez.com] Google et Facebook sous le coup de 4 accusations dans 4 pays pour avoir enfreint le RGPD

Par Stéphane le Calme, le samedi 26 mai 2018. Extrait:
> Google, Facebook, WhatsApp et Instagram sont accusées de forcer les utilisateurs à consentir à une publicité ciblée afin de pouvoir utiliser leurs services.
Lien vers l'article original: https://www.developpez.com/actu/205840/Google-et-Facebook-sous-le-coup-de-4-accusations-dans-4-pays-pour-avoir-enfreint-le-RGPD-quelques-heures-seulement-apres-son-entree-en-vigueur

[Les Yeux du Monde] La bataille pour le logiciel libre en Afrique

Par Loup Viallet, le vendredi 25 mai 2018. Extrait:
> Aujourd’hui l’Afrique demeure sous-équipée dans presque tous les domaines et les nouvelles technologies ne font pas exception à la règle: elles sont d’abord développées dans les pays industrialisés. Aussi le logiciel libre représente en Afrique une aide au développement, pour les entreprises comme pour les particuliers. C’est un transfert de technologie à la fois très économique et très rentable, peu coûteux, très adaptable et très utile pour démarrer une activité ou améliorer des services. Il intéresse beaucoup de monde.
Lien vers l'article original: http://les-yeux-du-monde.fr/ressources/35564-la-bataille-pour-le-logiciel-libre-en-afrique-par-loup-viallet

[Commentçamarche.net] Des ateliers pour préparer la fête des libertés numériques

Par Perrine Tiberghien, le mercredi 23 mai 2018. Extrait:
> Ces dernières semaines, l’info fleurit dans les boîtes mail. Les entreprises se préparent à la mise en place du règlement général sur la protection des données personnelles, le RGPD. Le sujet semble obscur, mais il est néanmoins important. Et pour bien s’y retrouver, le site dédié à la Fête des Libertés numériques propose outils, infos pratiques et ateliers.
Lien vers l'article original: https://www.commentcamarche.net/news/5871478-ateliers-fete-libertes-numeriques

[Le Journal du CM] Lumière sur la licence Creative Commons

Par Guillaume Guersan, le mercredi 23 mai 2018. Extrait:
> La licence Creative Commons vise à simplifier l'utilisation des œuvres diffusées sur Internet et à développer l'enrichissement du patrimoine commun. Je vais vous expliquer dans cet article, tout ce que vous devez savoir sur la licence Creative Commons.
Lien vers l'article original: https://www.journalducm.com/licence-creative-commons

[ZDNet France] Montréal précise son engagement pour le logiciel libre

Par Thierry Noisette, le lundi 21 mai 2018. Extrait:
> La métropole canadienne précise son choix de modernisation avec les logiciels libres, "plus adaptables aux besoins réels d’une organisation comme la nôtre".
Lien vers l'article original: http://www.zdnet.fr/blogs/l-esprit-libre/montreal-precise-son-engagement-pour-le-logiciel-libre-39868458.htm

[Le Monde.fr] Le ministère de l’enseignement supérieur dévoile l’algorithme principal de Parcoursup

Par Soazig Le Nevé, le lundi 21 mai 2018. Extrait:
> Le code informatique de la plate-forme d’admission a été rendu public, lundi, mais les algorithmes locaux élaborés par les universités restent, eux, secrets.
Lien vers l'article original: https://www.lemonde.fr/campus/article/2018/05/21/le-ministere-de-l-enseignement-superieur-devoile-l-algorithme-principal-de-parcoursup_5302387_4401467.html

Et aussi:
[Studyrama.com] Parcoursup: publication du code informatique des algorithmes

Note

Les articles de presse utilisent souvent le terme « Open Source » au lieu de Logiciel Libre. Le terme Logiciel Libre étant plus précis et renforçant l'importance des libertés, il est utilisé par l'April dans sa communication et ses actions. Cependant, dans la revue de presse nous avons choisi de ne pas modifier les termes employés par l'auteur de l'article original. Même chose concernant l'emploi du terme « Linux » qui est généralement utilisé dans les articles pour parler du système d'exploitation libre GNU/Linux.

Émission « Libre à vous » sur radio Cause Commune (mai 2018)

lun, 05/28/2018 - 11:06
Début: 29 Mai 2018 - 15:30Fin: 29 Mai 2018 - 17:00

La première émission Libre à vous ! de l'April sera diffusée sur radio « Cause Commune » sur la bande FM en région parisienne (93.1) et sur le site web de la radio mardi 29 mai 2018 de 15h30 à 17h00.

Les ambitions de l'émission Libre à vous !

La radio « Cause commune » a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons proposé de tenir une émission April intitulée Libre à Vous ! d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission sera également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! sera principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission mensuelle qui sera diffusée en direct chaque 1er mardi du mois de 15h30 à 17h00.

Émission du mardi 29 mai 2018 de 15h30 à 17h00

Exceptionnellement, la 1ère émission a été enregistrée, dans les conditions du direct, et sera diffusée mardi 29 mai de 15h30 à 17h00. Le principal dossier qui sera abordé est l'Open Bar Microsoft/Défense. Avant d'aborder ce dossier, il sera question de logiciel libre, de notre slogan « priorité au logiciel libre » au niveau individuel et collectif, du groupe de travail Sensibilisation de l’April et de moyens de découvrir concrètement le logiciel libre. Nous avons eu le plaisir de recueillir les propos de Joëlle Garriaud-Maylam, sénatrice des Français de l'étranger, des Français du monde et des Français établis hors de France, Secrétaire de la Commission des Affaires étrangères, de la Défense et des Forces Armées, et d'avoir la participation de Marc Rees, rédacteur en chef de Next INpact, par téléphone.

La seconde émission sera diffusée en direct mardi 5 juin 2018 de 15h30 à 17h00.

Liens utiles

Pourquoi défendre le logiciel libre - Véronique Bonnet

lun, 05/28/2018 - 09:10


Titre : Pourquoi défendre le logiciel libre ?
Intervenantes : Véronique Bonnet - Emmanuelle Huisman Perrin
Lieu : France Culture - Émission « Divers aspects de la pensée contemporaine »
Date : mai 2018
Durée : 18 min
Écouter ou télécharger le podcast
Licence de la transcription : Verbatim
Illustrations : Sac 20 ans de l'April, Licence Art Libre 1.3 ou ultérieure ; Logo France Culture Wikipédia.
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des intervenants et ne rejoignent pas forcément celles de l'April.

Description

Comment promouvoir une informatique plus libre et plus indépendante des GAFAM, ces sociétés qui se nourrissent de nos données? Comment garantir une réelle liberté d'expression et une vraie indépendance politique ? Une émission proposée par l'Union rationaliste.

Transcription

« Divers aspects de la pensée contemporaine » aujourd’hui l’Union rationaliste, une émission proposée par Emmanuelle Huisman Perrin.

Emmanuelle Huisman Perrin : Véronique Bonnet, bonjour. Vous êtes professeur de philosophie en classes préparatoires au lycée Janson de Sailly et depuis longtemps vous réfléchissez et militez pour promouvoir une informatique plus libre et plus indépendante des GAFAM – acronyme, je le rappelle, pour Google, Apple, Facebook, Amazon, Microsoft –, ces sociétés privées qui se nourrissent de nos données, ce que j’appelle personnellement les données volées, parce que vous pensez que l’indépendance vis-à-vis des moyens scientifiques et techniques est le garant d’une réelle liberté d’expression et d’une vraie indépendance politique.

Vous êtes donc vice-présidente de l’April, dont j’ignore si les auditeurs de France Culture connaissent l’existence, acronyme pour dire l’Association pour la promotion et la recherche en informatique libre. La question de la protection et de l’utilisation inappropriée de nos données est d’une actualité brûlante à l’heure où Mark Zuckerberg a présenté toutes ses excuses aux utilisateurs de Facebook pour l’insuffisance de protection des données, et au moment où la réglementation européenne de protection1 va être appliquée en Europe au cours de ce mois de mai.

Je voudrais que vous expliquiez aux auditeurs de France Culture quand vous avez choisi de vous engager contre ce que vous appelez, en formulant un joli adage quasi cartésien, « la servitude qui s’avance masquée », et pourquoi vous avez choisi de vous engager à l’April, Véronique Bonnet ?

Véronique Bonnet : J’ai toujours été très attachée à la philosophie des Lumières et il se trouve qu’il y a cinq ans, j’ai découvert le potentiel de lumière du logiciel libre, au sens où c’est une proposition contemporaine qui donne à la raison, à l’autonomie, sa place, en la nourrissant, en lui permettant d’être partagée, d’être publiée et de produire des œuvres de l’esprit, de produire des formes qui vont être diffusées, qui vont être copiées, améliorées et qui vont permettre à la communauté libriste de manifester peut-être ce que la Déclaration des droits de l’homme et du citoyen appelait cette possibilité la plus précieuse de l’être humain de diffuser sa pensée, de parler, d’imprimer ; et nous y sommes.

Pourquoi l’April ? Pourquoi suis-je entrée à l’April ? Parce que cette servitude qui s’avance masquée – alors en effet on peut penser à Descartes, « je m’avance masqué ».

Emmanuelle Huisman Perrin : Larvatus prodeo.

Véronique Bonnet : Absolument. On peut penser à La Boétie, au Discours de la servitude volontaire  ; La Boétie qui montre à quel point les tyrans sucrent la servitude, ce que font exactement les GAFAM, parce que ce sont des compagnies qui se présentent comme conviviales, qui se présentent comme facilitatrices de l’existence, alors que, comme vous l’avez dit, les données sont siphonnées, elles sont ensuite commercialisées d’une façon tout à fait indue. Et il me semble que l’April c’est, pour l’espace francophone, l’association qui est la plus rigoureuse, la plus tenace en matière de suivi des dossiers nationaux, européens et même internationaux. Et c’est vrai qu’il y a à l’April un travail de veille qui est remarquablement effectué par notre délégué général, Frédéric Couchet, et les trois autres permanents. Nous avons plus de 4 000 adhérents dont des personnes morales, par exemple la Ville de Paris, Toulouse, Grenoble ; nous avons des régions qui sont adhérentes de l’April, Provence-Alpes-Côte d’Azur, Auvergne-Rhône-Alpes ; nous avons des syndicats, des syndicats enseignants, parce que c’est vrai que les syndicats enseignants sont assez inquiets de la formation de ces futurs internautes que sont leurs élèves.

Emmanuelle Huisman Perrin : Très bien. Très clair. Il me semble que l’April, votre association, l’association dont vous êtes vice-présidente, va dans deux directions. Un, la dénonciation des procédures qui conduisent au vol, au siphonnage de nos données, sans que nous en soyons toujours clairement conscients, et la recommandation de la prudence par rapport aux applications utilisées par les internautes, car, je vous cite : « On ne voit plus les verrous qui sous-tendent les logiciels, ni le profilage qu’ils effectuent, ni le dépeçage des données qu’ils opèrent. » Est-ce bien cela les deux orientations principales de l’April ?

Véronique Bonnet : Je dirais deux directions parmi beaucoup.

Emmanuelle Huisman Perrin : Oui.

Véronique Bonnet : Puisque le corps de métier de l’April, donc pour l’espace francophone, c’est la promotion, la défense du logiciel libre en fonction, évidemment, des contextes nouveaux qui se présentent, selon les projets de loi nationaux, européens ; selon les discussions d’accords internationaux, je pense à CETA [Comprehensive Economic and Trade Agreement] et à TAFTA [Partenariat transatlantique de commerce et d'investissement] par exemple.

Peut-être faudrait-il que je précise ce qu’il en est du logiciel libre, de l’informatique libre. Je dirais que l’acte de naissance c’était aux États-Unis. Il y a un programmeur, mathématicien, qui s’appelle Richard Stallman, c’était en 1983, qui s’est heurté à ce que j’appellerais l’irrationalité de la mise sous licence systématique qui l’avait même empêché de réparer une imprimante. Ça c’est le comble, il veut réparer une imprimante…

Emmanuelle Huisman Perrin : Il ne peut pas !

Véronique Bonnet : Comme cette imprimante est sous copyright, la société Xerox lui dit qu’elle ne livrera pas le code source et là, il décide de fédérer autour de lui des programmeurs pour écrire du code et il prend la précaution très, très vite de mettre ce code sous licence libre, ce qu’on appelle un copyleftcopyleft c’est l’envers du copyright – et donc c’est le fameux projet GNU, qui va trouver en 96, date de naissance de l’April en France, c’est à Saint-Denis, c’est à l’université de Paris 8, qui va trouver un groupe de cofondateurs qui vont donc essayer de défendre ce qu’on appelle les quatre libertés du logiciel libre, c’est-à-dire pouvoir étudier le code, réparer – ça n’a pas été possible pour Richard Stallman –, copier le code source, améliorer, distribuer.

Pour ceux d’entre nous qui ne savent pas ce que c’est qu’un code source, c’est tout simplement une recette de logiciel, le logiciel qui va donc exécuter telle fonction ou telle fonction.

Emmanuelle Huisman Perrin : Faire en sorte qu’il y ait comme une démocratie informatique et non pas une captation du pouvoir par les GAFAM ?

Véronique Bonnet : Je crois que c’est exactement ça. C’est-à-dire que la plupart du temps, avec l’informatique propriétaire, l’informatique non libre qui s’avance masquée, d’une façon très indue, qui prend nos données, on s’aperçoit qu’en réalité l’utilisateur est davantage le moyen que la fin. C’est-à-dire que c’est davantage son ordinateur qui fait de lui une source à données alors que lui devrait évidemment en avoir la maîtrise.

Emmanuelle Huisman Perrin : Je pose ici une question à l’éducatrice que je suis et que vous êtes aussi, comment faire entendre aux enfants, aux jeunes gens et aux jeunes filles, qui piratent de la musique, des films, des séries, sans peut-être en avoir pleine conscience, que ces gestes-là sont catastrophiques par rapport aux créateurs, aux musiciens, aux artistes ? Et comment expliquer cette illusion de la gratuité dans laquelle, au fond, tous les internautes se bercent ?

Véronique Bonnet : Je suis également éducatrice. J’emploierai exactement votre adjectif. Je trouve catastrophique que les très jeunes – on peut même dire enfants, pas seulement ados – qui fréquentent les réseaux sociaux se voient comme privés de toute intimité. Il y a aussi un piratage indu de leurs données.

Emmanuelle Huisman Perrin : De la vie privée.

Véronique Bonnet : Un stockage des détails de leur vie et je dirais qu’il est déjà très difficile de sensibiliser les adultes à cette question de la captation des données, encore plus difficile pour les enfants. Mais évidemment, cette sensibilisation est un des axes auxquels s’emploie l’April.

Pour revenir à cette question qui est dans votre axe, que vous m’avez proposée, la question du téléchargement en peer to peer que vous évoquez. C’est vrai que l’économie des biens culturels est actuellement à un tournant au sens où la numérisation de ces biens culturels fait qu’on est passé d’une économie de biens matériels rivaux, avec les livres, avec les films, qui coûtent beaucoup d’argent à produire, à distribuer, à acheminer, vers des biens immatériels qui sont non rivaux : ça ne coûte quasiment rien – bon ! un petit peu de bande passante – de dupliquer des textes, des films, les séries dont vous parlez. Et il est certain que, progressivement, on doit non seulement trouver une solution de rémunération en phase avec cette économie des créateurs, ça existe – il y a par exemple quelque chose qui s’appelle Flattr2, ou vous avez une autre solution qui s’appelle Liberapay – puisqu’on essaye de responsabiliser à l’April les utilisateurs – et, en même temps, c’est vrai qu’il y a de plus en plus de plateformes d’œuvres qui ont accédé au domaine public ; je pense à Wikisource3 — je sais que j’envoie régulièrement mes étudiants lire les philosophes sur Wikisource ; vous avez Wikipédia qui donne lieu à un contrôle extrêmement strict, à des discussions extrêmement strictes pour qu’un article se trouve admis. Et je me référerai volontiers à ce que disait Victor Hugo dans son discours inaugural de la Conférence littéraire internationale, à savoir : « Le livre appartient à l’auteur, absolument, indéniablement ; il faut que le travail de conception soit reconnu et rémunéré, mais en même temps la pensée appartient à l’humanité ».

Emmanuelle Huisman Perrin : En dehors des actions pratiques de l’April, vous êtes aussi une théoricienne du Net, Véronique Bonnet, et vous montrez comment la réflexion d’Hannah Arendt ou de Michel Foucault sont intéressantes pour penser ce nouvel espace qu’est le Net. Pourriez-vous donner deux exemples aux auditeurs de France Culture, je propose ce sur quoi vous réfléchissez en matière de vie privée ou peut-être en terme foucaldien d’hétérotopie.

Véronique Bonnet : Je précise déjà que Hannah Arendt et Michel Foucault ont évidemment rédigé des textes qui sont pré-numériques.

Emmanuelle Huisman Perrin : Antérieurs, oui.

Véronique Bonnet : Qui sont antérieurs, mais qui, c’est vrai, proposent des modèles, proposent des schémas, pour essayer d’affronter les questions contemporaines. Je pense chez Hannah Arendt à un texte de Human Condition, ce qui a été traduit par la Condition de l’homme moderne, lorsqu’elle dit par exemple que lorsqu’une génération vient au monde, il faut absolument, pour qu’elle puisse s’humaniser, qu’elle trouve à sa disposition comme une table autour de laquelle s’asseoir – alors une table qui représente toutes les élaborations culturelles, musicales, picturales –, donc qui l’accueille lorsqu’elle vient au monde et ce qu’elle va laisser à sa mort, en l’ayant enrichi, en l’ayant élargi. Et c’est vrai que Hannah Arendt craint deux formes de dysfonctionnement : une forme où les êtres seraient trop proches les uns des autres, là je pense aux réseaux sociaux.

Emmanuelle Huisman Perrin : Une fusionnalité.

Véronique Bonnet : Voilà, une forme d’hystérie collective, je dirais, et autre forme qui est le totalitarisme qui va balayer des pans entiers de la culture. Et c’est vrai que l’April a été très alertée lorsque par exemple aux États-Unis on a parlé d’en finir avec la neutralité de l’Internet, comme s’il pouvait y avoir l’Internet à deux vitesses, pour ceux qui ont des visées strictement économiques et ceux qui ont des visées culturelles.

Et j’en profite pour dire que dans le logiciel libre, c’est vrai qu’il y a deux versants : un versant qui va être plus libéral, qu’on appelle l’open source, avec l’idée que plus le code est ouvert, plus il y a d’utilisateurs, plus il y a de rapports de bugs, plus un logiciel est performant ; là on est dans la performance ; alors que le logiciel libre que défend l’April et qu’essaie de promouvoir l’April c’est ce qu’on appelle le free software, alors pas free au sens de gratuit.

Emmanuelle Huisman Perrin : Illusion de la gratuité dénoncée.

Véronique Bonnet : Voilà, illusion de la gratuité, au sens du free speech, et là j’en viens à ce que Foucault appelle l’hétérotopie4 ; il dit : « Dans les civilisations sans bateau, les rêves se tarissent, l’espionnage y remplace l’aventure et la police les corsaires. » Ce contre quoi l’April met en œuvre aussi bien ses forces de proposition que sa veille qui, je crois, est très rigoureuse et tenace : ça serait arriver à une fréquentation numérique qui soit dans cette froideur technologique violente qu’on appelle la gouvernementalité5, qu’on appelle le soft power, c’est-à-dire que les humains sont dans des fonctionnements, dans des trajectoires qui leur sont imposées, dans une forme de panoptique qui les dépossède totalement de toute possibilité de faire un pas de côté ou d’aller chercher ce que Foucault appelle une ligne de fuite.

Emmanuelle Huisman Perrin : Il me semble que, Véronique Bonnet, vous avez tenté de montrer dans le cours de cette émission que construire une société qui peut utiliser des logiciels libres et des œuvres qui peuvent aussi être libres de droit, c’est un bon moyen de défendre la raison.

Véronique Bonnet : Je dirais qu’une telle société ne se décrète pas. Il faut sensibiliser ; c’est ce à quoi s’attache l’April, et je dirais que le logiciel libre est non seulement rationnel au sens de sa performance, mais raisonnable. Pourquoi ? Parce qu’il permet de jouer collectif, de faire société, de faire humanité.

Emmanuelle Huisman Perrin : C’est sur ces derniers mots que nous allons clore cette émission. Véronique Bonnet, je vous remercie.

Je remercie Guillaume Le Du et Dany Journo qui ont rendu possible cette émission. Je renvoie les auditeurs de France Culture au site de l’Union rationaliste6 où ils pourront voir nos différentes publications et où ils pourront aussi nous contacter et pourquoi pas nous rejoindre. Je vous dis au mois prochain.

Le choix des logiciels libres en collectivité territoriale - Pascal Kuczynski - ADULLACT

jeu, 05/24/2018 - 15:48


Titre : Le choix des logiciels libres en collectivité territoriale
Intervenants : Pascal Kuczynski - Évelyne Jardin
Lieu : Radio Agora - Nanterre
Date : février 2018
Durée : 32 min 15
Écouter l'enregistrement
Licence de la transcription : Verbatim
Illustration : Copie d'écran de la page d’accueil du site de l'ADULLACT ; mentions légales Droits de reproduction.
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas forcément celles de l'April.

Transcription

Évelyne Jardin : Bonjour chers auditeurs et auditrices de Radio Agora. Nous accueillons aujourd’hui, mardi 27 février 2018, Pascal Kuczynski. Pascal, vous êtes délégué général de l’ADULLACT. L’ADULLACT est l’association des développeurs et utilisateurs de logiciels libres pour les administrations et les collectivités territoriales. Merci Pascal de venir de Montpellier, par cette journée glaciale, pour nous expliquer les missions de cette association. Pascal, quelles sont les activités de l’ADULLACT ?

Pascal Kuczynski : Bonjour et merci de m’avoir accueilli aujourd’hui. L’ADULLACT1 est une association loi 1901, créée il y a quinze ans déjà — comme quoi ça doit être utile à quelque chose si ça continue de perdurer — dont l’objet est de promouvoir, développer et faire connaître des logiciels libres dans les métiers des collectivités. Je parle bien des métiers des collectivités. J’aime à citer comme exemple le cimetière : il n’y a que 36 000 communes en France qui ont un cimetière, qui doivent gérer un cimetière. Il y a un logiciel libre de gestion de cimetière qui s’appelle openCimetière2. Voilà notre mission : faire connaître ce genre de choses, aider les collectivités à partager leurs travaux sur ces outils-là.

Et c’est très important de comprendre l’intérêt de ce rouage. Nous on est juste la goutte d’huile qui vient faire que les rouages fonctionnent ensemble. C’est très important de comprendre qu’on passe, grâce à ce genre d’initiative, d’un milieu où je me contente d’acheter des logiciels sur catalogue, je deviens, alors je caricature en disant un singe savant presse-boutons qui clique sur le bouton là où on m’a dit où il fallait pour enregistrer une nouvelle concession dans mon cimetière. C’est une chose.

Dans le contexte du logiciel libre, il faut bien comprendre la notion de partage, partage d’informations, partage de savoir-faire. Et quand les agents s’intéressent à ce genre de choses, ils se réattribuent leur métier, en l’occurrence, là, le métier de la gestion de cimetière ; mais je peux vous citer une centaine d’autres métiers au sein de nos collectivités, y compris la ville de Nanterre qui doit avoir 200-250 métiers à gérer de ce type-là, et une bonne moitié sont couverts par des logiciels libres. Et je disais, les agents des collectivités peuvent se réattribuer leurs propres métiers, non plus être des singes savants clique-boutons, mais comprendre ce qu’il y a : tiens, au prochain groupe de travail – parce que c’est notre rôle d’organiser des groupes de travail pour faire parler de ces outils et les faire évoluer, surtout – l’agent en question pourra dire « moi j’ai besoin de ci, moi j’ai besoin de ça ; j’ai besoin d’un bouton qui fait ça » et de participer à l’évolution du logiciel avec, en toile de fond bien évidemment, l’économie d’argent public. Puisque je garantis, parce que c’est du logiciel libre – je reviendrai là-dessus sur la définition du logiciel libre pour en parler –, mais parce que c’est du logiciel libre, j’ai la garantie que lorsqu’une collectivité va investir pour ajouter le bouton bleu qui a été jugé nécessaire, ça a été payé une fois oui, mais ça ne sera payé qu’une fois ! Un de nos leitmotivs est de dire « l’argent public ne paye qu’une fois ». Et c’est quelque chose qu’on a très largement oublié dans le monde des logiciels dans les services publics.

Évelyne Jardin : Pascal, si je reprends votre exemple, beaucoup de collectivités ont des logiciels pour gérer des cimetières, c’est ça ? Et ces logiciels-là sont plutôt privateurs, généralement, et vous, à l’ADULLACT, vous proposez une solution libre ? Est-ce que j’ai bien compris ? Et du coup, quel est l’avantage de passer d’un logiciel privateur à un logiciel libre ? Est-ce que c’est intéressant d’un point de vue pécuniaire pour la collectivité territoriale ? Donc première question, est-ce que c’est moins cher ? Et si je vous comprends bien, est-ce que c’est aussi plus intéressant pour les membres de la collectivité pour s’emparer des outils et les faire évoluer ?

Pascal Kuczynski : Plus intéressant, c’est ce que je venais de raconter, effectivement oui, puisque que chacun se réattribue son métier et participe à l’évolution du logiciel. Quand je dis évolution, ça peut être des besoins purement fonctionnels, pour le confort de chacun et pour le bien-être des citoyens qui voient leurs services s’améliorer, le service qui leur était offert s’améliorer, mais aussi pour les suivis réglementaires. Par exemple il y a une nouvelle réglementation qui vient, je vais l’opérer, cette nouvelle réglementation je vais l’intégrer dans mon logiciel de telle ou telle façon : l’agent est le premier acteur de son logiciel. Ça c’est sur l’aspect confort amélioré.

Maintenant sur l’aspect pécuniaire, je vais vous citer un autre exemple. Sans vouloir être trop complexe dans la vie des collectivités, mais sachez qu’à la mairie de Nanterre, il y a un conseil municipal, comme dans toutes les villes. Ce conseil municipal se réunit régulièrement, sans doute au moins une fois par mois, et puis il y a des commissions, enfin il y a tout plein de réunions qui se font comme ça ; chacune de ces réunions, de ces conseils municipaux, sert à prendre des décisions ; c’est ce qu’on appelle les délibérations : une délibération va fermer la rue machin parce qu’il y a une fête, parce qu’on doit faire préempter la maison de madame Michu, parce qu’on va faire des travaux. Bref ! Il y a tout plein de décisions qui sont prises. Chacune de ces décisions, prise par le conseil municipal, est envoyée à l’État, la préfecture en l’occurrence des Hauts-de-Seine, pour valider la décision : est-ce qu’elle dans la loi ? C’est ce qu’on appelle le contrôle de la légalité.

Depuis dix ans maintenant, ce contrôle de la légalité est dématérialisé à l’initiative de l’État ; il a décidé de dématérialiser plutôt que d’envoyer des papiers, parce qu’il faut vraiment se mettre dans le contexte : il y a un agent de la mairie qui prenait le tas de papiers en sortie du conseil municipal ; qui allait à la préfecture à pied, en voiture ou comme il voulait, se faire tamponner chacune des 30, 40, 50 délibérations qui sortent du conseil municipal et revenait avec ses papiers tamponnés après avoir fait des photocopies pour que la préfecture puisse travailler dessus. Fini tout ça ! Aujourd’hui c’est dématérialisé ; ça passe par des plateformes homologuées. Il y a une quinzaine de services de ce type-là, opérés par des entreprises qui ont été homologuées par le ministère de l’Intérieur pour opérer ce service de dématérialisation des délibérations en question. Donc les mairies, aujourd’hui, postent les fichiers qu’elles ont fabriqués en sortie de conseil municipal et, en quelques clics, j’ai envoyé tout ça ! Et la réponse ce n’est pas un coup de tampon, c’est un coup de tampon électronique, je l’ai au bout de quelques minutes, donc sans me déplacer ; il y a économie aussi d’argent public à ce niveau-là. Et l’économie d’argent public est prouvée par ADULLACT. Sachez que nous sommes opérateur depuis plus de dix ans sur ce service-là. Nous sommes devenus depuis un an numéro 1 sur le marché français devant tous les éditeurs, qui ne sont pas libres du tout, eux.

Donc voilà un exemple concret où on a prouvé, de part simplement un fait : nous sommes le premier opérateur de dématérialisation des actes administratifs, les délibérations, en France aujourd’hui. Pourquoi ? Ce n’est pas pour nos beaux yeux, ce n’est pas parce qu’on est une association – les gens s’en moquent –, c’est parce qu’on coûte moins cher en global.

D’ailleurs un deuxième point, c’est que c’est nous qui collectionnons le plus de collectivités inscrites sur notre plateforme. D’autres sont plus forts que nous en termes de nombre de documents envoyés. Ça va devenir un petit peu technique, pardon, mais ça veut dire que des grosses collectivités vont continuer à travailler avec des privateurs, pour reprendre votre terme de tout à l’heure, alors que nous on va avoir plein de petites communes. Ce qui veut dire aussi que non seulement on est moins cher dans l’ensemble, globalement, mais en plus, on couvre beaucoup mieux le territoire national avec les toutes petites communes qui n’ont pas les moyens de se payer la Rolls-Royce de l’outil, etc. Sachant que notre outil est loin d’être à rougir de quelque Rolls-Royce que ce soit, encore une fois : il est tout à fait conforme aux critères et aux usages nécessaires sur le domaine.

Évelyne Jardin : Donc si j’en viens à vos missions, vous faites de l’offre de services, vous faites de l’offre de services pour les collectivités territoriales. Pour bénéficier de cette offre de services, il faut être adhérent de l’ADULLACT ? Comment ça se passe ?

Pascal Kuczynski : Effectivement. On n’est pas vraiment offreur de services. On est offreur de services en ligne, ce qui est un petit peu différent. C’est-à-dire que l’association, par exemple, ne fait pas de formation, ne fait pas d’accompagnement, ne fait pas ce genre de choses. Il y a des entreprises qui font ça très bien et avec un modèle économique. Je vous rappelle que le modèle économique du logiciel libre s’appuie sur le service. Donc nous, association qui ne vivons que des cotisations de nos membres, nous ne marchons pas sur les plates-bandes des entreprises qui font des services sur les outils libres. Nous, ce qu’on fait c’est quoi ? On choisit des outils libres qui répondent à un besoin métier d’une collectivité ; on les met sur une de nos machines – là, en l’occurrence, on se fait homologuer par le ministère de l’Intérieur pour travailler sur le sujet qu’on vient d’aborder – et on offre ça gratuitement à nos membres. Aujourd’hui, la mairie de Nanterre dépense une somme non négligeable pour avoir accès à une telle plateforme. Je ne doute pas que la mairie de Nanterre dématérialise ses actes administratifs. Elle n’est pas inscrite sur notre plateforme qui s’appelle S2LOW [Service Sécurisé Libre inter-Opérable pour la Vérification et la Validation]. S2LOW c’est parce que, petite parenthèse, le numéro 1 à l’époque s’appelait Fast ; on a joué au lièvre et à la tortue et vous voyez, on a gagné, tel La Fontaine. La mairie de Nanterre, disais-je, dépense des sommes non négligeables pour opérer ce service. Si elle était adhérente à l’association ça ne lui coûterait rien du tout.

Évelyne Jardin : J’ai regardé un peu vos barèmes d’adhésion. Ils sont en fonction de la grosseur de la collectivité territoriale, si je ne me trompe pas. Donc une ville comme Nanterre aurait un coût de cotisation à peu près de 4 000 euros par an pour pouvoir bénéficier de vos services en ligne. C’est ça ?

Pascal Kuczynski : Là on a cité un service en ligne. Mais il n’y en a pas qu’un qui est offert par l’association. Si j’ajoute à ça les marchés publics qui sont aussi dématérialisés, les tablettes des élus pour avoir leurs projets de délibération qui sont aussi dématérialisables, les sites web : je vous rappelle qu’il y a des réglementations pour les collectivités territoriales, leurs sites web, tous leurs sites web intranet, extranet, etc., doivent être accessibles à tout handicap. Nous avons un outil pour auditer automatiquement ce genre de choses. J’ai hâte de faire fonctionner mon outil sur le site des communes non adhérentes pour voir. Elles auraient à gagner à utiliser des outils de ce type-là, certainement.

Il ne s’agit pas de crier haro après les gens qui ne sont pas au niveau. C’est juste qu’on offre des outils dans le contexte de cette adhésion, sans bourse délier supplémentaire au-dessus de l’adhésion, pour augmenter le savoir-faire et la qualité offerte aux citoyens – en l’occurrence on parle des citoyens handicapés, qui sont trop souvent la dernière roue du carrosse – et augmenter le niveau d’accessibilité de ces sites web. Voilà une vraie œuvre de salut public.

Évelyne Jardin : Vous parlez donc de l’accessibilité des sites internet et en effet d’un outil que vous mettez à disposition. Son nom m’échappe, il a nom basque qui veut dire libre je crois.

Pascal Kuczynski : C’est liberté en basque, asqatasun.

Évelyne Jardin : Voilà, c’est ça. Un outil qui permet de tester si les sites internet des collectivités sont bien accessibles à tout public. Vous proposez de très nombreux services en ligne comme vous venez de le dire. Il y a aussi un autre aspect qui m’intéresse et qui intéressera probablement nos auditeurs, c’est un label que vous avez aussi lancé récemment, un label qui s’appelle Territoire Numérique Libre. Donc certaines villes ont obtenu ce label. Ce label permet de faire quoi ? Et comment on peut l’obtenir ?

Pascal Kuczynski : On vient de voir et de parler ensemble d’un certain nombre de services offerts à nos membres. On parlait du contrôle de légalité, des tablettes des élus, etc., j’en passe et des meilleurs, des jetons d’horodatage, des formulaires en ligne pour s’inscrire à la bibliothèque municipale, etc. Tout ça, ce sont des services réservés aux adhérents de l’association. Au passage je ferai remarquer, vous parliez de tarifs tout à l’heure, la mairie de Nanterre serait la bienvenue bien évidemment et gagnerait certainement à adhérer à ADULLACT – pardon aux agents de la collectivité, je ne veux pas … –, gagnerait en argent public : nous gagnerions tous s’il y avait plus de logiciels libres bien évidemment. Ce que je voulais dire c’est que les tarifs sont dégressifs en fonction du nombre de collectivités. Exemple : la mairie de Nanterre fait partie d’une communauté d’agglomérations, tout ça étant dans le Grand Paris, je ne vais pas rentrer dans les détails ; il y a des tarifs bien évidemment très avantageux lorsqu’on fait un tir groupé. C’est ce qu’on appelle la mutualisation, c’est notre cheval de bataille pour faire économiser, là aussi, de l’argent public. Le logiciel libre est un excellent vecteur de mutualisation et nous jouons dans cette cour-là.

Donc je disais un certain nombre de services, on l’a vu, réservés à nos membres, mais nous avons également, à côté de ça, des initiatives propres à l’association qui, elles, sont ouvertes à tous.

Je commencerai par le commencement puisque, je vous l’ai dit, l’association existe depuis 15 ans à l’initiative de certains élus qui, comment dire, voulaient sortir des menottes imposées par les, vous avez dit tout à l’heure outils privateurs, sous-entendu des éditeurs de logiciels qui vous enferment un petit peu dans leurs solutions dont il est très difficile de sortir. On parle souvent des coûts d’acquisition, on ne parle pas assez des coûts de sortie d’un logiciel quand j’ai besoin de changer de source.

Donc c’est là qu’ADULLACT est née et, à l’époque, on a créé un outil – vous l’aurez compris, l’objet de l’association c’est de promouvoir et développer des logiciels libres ou au moins aider à faire développer de nouveaux logiciels libres. Finalement, un logiciel libre c’est quoi par rapport à un logiciel pas libre ? C’est un logiciel dont j’ai la recette de cuisine. Autrement dit, vous savez très bien faire un plat cuisiné quelconque, un lapin avec une sauce aux champignons ; c’est encore mieux quand vous savez écrire la recette, la transmettre à quelqu’un et le quelqu’un, fort de cette recette, sait également faire le même lapin et décide de lui-même « tiens, c’est mieux si je rajoute un petit peu de sel ; tiens, c’est mieux si je rajoute un petit peu de crème fraîche à ce moment-là de la cuisson, etc. » C’est ça le logiciel libre. C’est avoir la recette de cuisine et autoriser les autres à modifier cette recette de cuisine pour améliorer le plat. Le logiciel libre c’est ça : je donne en partage le code que j’ai fabriqué, ou peut-être j’ai payé quelqu’un pour le faire dans le cas d’une collectivité, j’ai payé une entreprise pour développer mon logiciel libre. Mon logiciel, je le libère sous une licence adéquate – la licence libre c’est une autre aventure, c’est l’aspect juridique du logiciel libre –, sous une licence adéquate. Je vais ensuite publier la recette de cuisine. Évidemment, ce n’est pas un simple bout de papier qui se transmet de mère en fille, c’est une recette de cuisine de logiciel ; c’est un outil un petit peu compliqué, fait pour les développeurs, fait pour les gens spécialisés. C’est un outil qui prend son nom dans les racines des travaux ancestraux : ça s’appelle une forge.

Comme le forgeron forge ses outils, le développeur de logiciels forge ses outils, lui aussi, et les partage sur des outils de partage dédiés à cette chose-là ; ça s’appelle une forge. L’ADULLACT a créé une forge dédiée aux logiciels libres, financée par de l’argent public, depuis 15 ans. C’est une forge unique en Europe. Même l’État français qui avait, à l’époque, initié un travail équivalent, nous a rejoints parce que, bien évidemment, nous sommes la plus grosse aujourd’hui et la plus importante en France en termes de forge, donc livres de recettes de cuisine « écrivables », modifiables par tout un chacun, pour permettre de faire évoluer les choses dans nos groupes de travail. Ça sert à ça.

Donc cette forge, c’était le premier outil qu’on a mis au service de tous pour faire avancer le schmilblick de logiciels libres dans les services des collectivités territoriales.

Évelyne Jardin : Alors les villes labellisées Territoire Numérique Libre sont des villes qui détiennent de nombreux forgerons ?

Pascal Kuczynski : Pas tout à fait. Parce qu’on va le voir on n’est pas non plus obligé d’être un cuisinier hors pair pour faire du logiciel libre. Je peux aussi simplement être un goutteur ou déguster le lapin aux champignons dont on parlait tout à l’heure. Et c’est souvent, bien évidemment, ce qu’on trouve.

Maintenant c’est intéressant de savoir, parce que le fait d’ouvrir mon code, ma recette de cuisine à tous, modifie le modèle économique de tout l’écosystème en question. Autrement dit, l’entreprise qui va développer le logiciel en question et que je paye pour ça, elle n’a plus l’exclusivité de cette chose-là. Je peux prendre un exemple très simple. Aujourd’hui vous utilisez l’outil Microsoft Word pour rédiger un document, lettre ou autre, il n’y a qu’une seule entité au monde capable de modifier et de faire évoluer ce logiciel, ou décider d’arrêter telle version et de passer à une autre qui n’est pas forcément compatible, c’est l’entreprise Microsoft. Dans le contexte des administrations françaises, on aimerait bien que les métiers de nos administrations ne soient pas sous le contrôle d’un pilote, américain qui plus est ! Et c’est ça l’intérêt que nous mettons en avant : c’est la possibilité de redonner les clefs de leurs infrastructures informatiques aux administrations françaises. Et vous comprenez donc toute cette mécanique – on parle de recette de cuisine, on s’amuse un petit peu autour de ça –, mais vous comprenez le sérieux qu’il y a derrière et l’impact que ça peut avoir d’un point de vue global, voire au niveau mondial parce que tout le monde s’y met un petit peu ; la France n’est pas exclusive. Par contre notre forge, nous, elle est effectivement exclusive en Europe.

Et je disais donc la forge c’était le numéro 1 dans ces initiatives ouvertes et offertes à tout le monde. Il y a deux ans, on a créé une autre initiative à destination des collectivités, encore une fois, c’est ce qu’on appelle le Comptoir du Libre. En effet, il ne se passe pas une semaine sans qu’on n’ait pas un appel d’une collectivité qui nous demande : « Est-ce que vous avez un logiciel libre pour notre bibliothèque ? Est-ce que vous avez un logiciel libre pour notre cimetière par exemple ? Est-ce que vous avez un logiciel libre pour, j’aimerais créer un formulaire pour faire ci ? » Bref ! Des questions comme ça on en a tous les jours. Plutôt que d’appeler l’ADULLACT, ou même de ne pas avoir forcément de réponse parce qu’on ne sait pas tout tout de suite, on a créé une plateforme, lisible par tous, donc on n’est plus dans la forge technique faite pour les techniciens, on est dans un outil comptoir-du-libre.org3 ; tout un chacun peut y aller. On voit très bien ce qui se passe. Il y a petit moteur de recherche. Je cherche un logiciel de gestion de courrier parce que le courrier c’est très important dans une collectivité : les citoyens écrivent, envoient des courriers électroniques, papier, ou que sais-je ; dans quel service ça va ? Comment est-ce que c’est traité ? Il y a l’accusé de réception envoyé à la personne qui a écrit ? Etc. C’est un logiciel de gestion qui est très important. Je cherche « courrier », je vais trouver des logiciels de gestion de courrier sur le Comptoir du Libre.

Et ce qui est très important dans le monde des collectivités, c’est de mesurer très rapidement la qualité de ces logiciels, parce qu’il n’y en a souvent pas un seul, il y en a beaucoup, donc j’ai un choix devant moi ; lequel est-ce que je choisis ? Je vais avoir la possibilité d’échanger avec d’autres collectivités, mes collègues qui font le même métier que moi, qui font le même travail que moi, mais dans une autre collectivité. En tout cas on partage le même besoin et on est des collègues. Je vais pouvoir interroger un collègue de l’autre côté sur la France qui fait le même métier sur « qu’est-ce que tu penses de ce logiciel de courrier ? J’ai vu que tu l’utilisais, tu l’as déclaré sur la plateforme le Comptoir du Libre de l’ADULLACT. » Et ça s’échange et c’est notre objectif à nous, c’est de mettre les gens qui partagent un métier de collectivité avec d’autres agents qui font le même métier de collectivité. Ça c’est primordial et c’est l’intérêt du Comptoir du Libre.

Cerise sur le gâteau, une fois que je suis convaincu que c’est le logiciel qu’il me faut parce que les collègues qui l’utilisent m’ont convaincu que c’était un bel outil, je ne suis pas informaticien, ce n’est pas forcément facile, il ne suffit pas de cliquer sur un bouton : j’ai besoin d’aide pour le mettre en place, pour peut-être me former dessus. Des entreprises sont effectivement invitées à se déclarer sur le même Comptoir du Libre pour déclarer leur savoir-faire sur le sujet et je saurai donc à qui m’adresser : il y a une, deux, trois, cinq entreprises qui me proposent des services un peu partout en France pour m’aider à mettre en place ce logiciel libre-là. Et après, eh bien c’est la loi du marché qui s’active : que le meilleur gagne ! En tout cas le logiciel est là, nos groupes de travail sont là pour le faire évoluer et on continue de faire avancer le schmilblick de cette façon-là.

Donc c’est pour ça que je parlais d’initiatives. Toujours dans cette rubrique initiatives, depuis deux ans, nous avons effectivement initié, puisqu’on arrive à la troisième année maintenant, le fameux Territoire Numérique Libre4.

Évelyne Jardin : Oui. J’ai vu qu’il y a un petit nombre de villes qui ont un label Territoire Numérique Libre. Et apparemment je n’en ai repéré aucune en Île-de-France. Donc comment se fait-ce ça ? Comment on peut obtenir ce label et pourquoi il y a si peu de villes qui sont encore labellisées ?

Pascal Kuczynski : Si peu de villes, c’est beaucoup dire ou c’est peu dire ! Il y a quand même plus de 25 collectivités qui ont participé au label depuis deux ans, on attaque la troisième année seulement, donc c’est très récent, c’est un bébé ce label ! L’idée de ce label, label Territoire Numérique Libre, c’est de, entre guillemets, « encourager » les collectivités à faire du logiciel libre, à introduire le logiciel libre dans leurs métiers, dans leurs services d’information et, derrière la notion de label, il y a aussi une notion de communication. On voit tous à la télé, sur les panneaux du métro, des collectivités faire de la publicité pour telle ou telle raison : « Venez me voir chez moi il y a du soleil ! Venez me voir chez moi il y a des bains moussants ! », etc. Ça coûte très cher. L’idée, là, avec le logiciel libre, c’est de permettre à une collectivité de communiquer d’une autre façon, peut-être en expliquant : « Regardez comme j’ai bien économisé l’argent public parce que j’ai utilisé des logiciels libres ». Et on peut les aider à mesurer cette chose-là. Je peux annoncer aujourd’hui qu’on a fait économiser des millions d’euros, depuis 15 ans, grâce aux logiciels libres qu’on met en avant et qu’on défend. C’est à partager certes entre plusieurs collectivités, mais les chiffres sont là.

Pourquoi une collectivité qui a fait l’effort de remplacer toutes ses licences Microsoft Word dont on parlait tout à l’heure – je n’ai rien contre monsieur Microsoft, c’est juste que ça coûte un petit plus cher d’utiliser Microsoft Word que LibreOffice5, et c’est mon argent d’impôts, votre argent d’impôts, nos impôts à nous tous qui payons ces licences Microsoft pour les agents des collectivités qui doivent faire leur travail. Il s’avère que de nombreuses collectivités aujourd’hui ont migré déjà, je ne prends qu’un exemple, la bureautique avec Microsoft Word. Si je remplace Microsoft Word par LibreOffice, je fais tout de suite des centaines ou des millions d’euros d’économies à l’échelle nationale.

Évelyne Jardin : Donc vous nous annoncez des économies budgétaires non négligeables à l’heure où les restrictions sont de mise. Je suis un petit peu étonnée. Pourquoi si peu de citoyens semblent concernés par ce sujet-là ?

Pascal Kuczynski : Qui en parle ? Qui s’insère dans la vie de la collectivité ? Elle est complètement autonome et c’est le travail de la collectivité et de ses agents de savoir comment ils opèrent leur métier. Donc c’est leur responsabilité ; ils n’ont de leçons à recevoir de personne sur le sujet. Après, ce qu’on peut faire, c’est ouvrir des portes, voire des fenêtres, pour montrer « regardez comment ça peut se passer autrement ». Et on a de nombreux exemples de villes, je peux citer Nantes, je peux citer Rennes, je peux citer des départements, même des pompiers se sont mis à LibreOffice. Donc tous les corps de métier sont concernés. Encore une fois on ne parle que de la bureautique, mais il y a de nombreux autres outils libres, que ce soit pour l’administration système de mes machines ou les outils métiers dont on parlait tout à l’heure, de cimetière ou de contrôle de légalité pour ne citer qu’eux, mais encore une fois, il y entre 200 et 250 métiers dans une collectivité qui peuvent être couverts par un outil libre. Donc revenons à l’exemple de la bureautique que tout le monde peut comprendre, on a tous, un jour ou l’autre, touché un outil bureautique de ce type-là. Vous voyez bien le coût d’une licence, même négocié au niveau d’une collectivité aussi grosse que la ville de Nanterre, vous imaginez les économies qu’on peut réaliser chaque année.

C’est vrai que ça ne se fait pas en claquant des doigts une migration telle que celle-là. Ça veut dire que la première année, même peut-être les deux premières années, on ne va pas faire d’économies, parce que je vais remplacer le coût que me coûtait le renouvellement de mes licences Microsoft par des formations, des accompagnements : mes agents qui ont besoin, à qui on va expliquer « maintenant tu cliques ici pour faire ça ; tu changes ta façon de faire » ; c’est ce qu’on appelle de la formation, de l’accompagnement, de l’accompagnement au changement. C’est le but et c’est l’investissement qui sera nécessaire pour mettre les agents sur un nouvel outil qui va les concerner au quotidien.

Je laisse de côté les quelques cas particuliers. On a toujours un outil qui va nécessiter : j’ai besoin d’un outil Microsoft du type Word ici parce que cet outil qui me sert à faire la paye, par exemple, a besoin de Word ; ceux-là, on les laisse ; c’est une dizaine de personnes qui vont être concernées par ça par rapport aux milliers d’agents qui sont concernés au sein de la collectivité pour faire le même travail, si je reste sur la mairie de Nanterre.

N’empêche que l’économie est là, au bout du compte, et c’est bien notre argent, c’est bien de l’argent public dont on est en train de parler.

Évelyne Jardin : Est-ce que vous constatez qu’il y a de plus en plus de collectivités territoriales qui viennent frapper à votre porte ? Est-ce que vous sentez qu’il y a un mouvement qui change par rapport au logiciel libre ?

Pascal Kuczynski : J’ai des chiffres assez faciles à comprendre et à mesurer. Vous voyez, notre S2LOW qui faisait concurrence au FAST. FAST est un outil né de la Caisse des dépôts et consignation ; ce n’est pas une petite chose ! C’était eux le numéro 1 ; aujourd’hui c’est nous parce que c’est du logiciel libre et, du coup, ça plaît aussi aux éditeurs qui doivent se coller dessus, parce qu’il y a de l’ouverture. On est numéro 1 en nombre de collectivités, mais on est aussi numéro 1 en nombre de fois où ce logiciel, puisque c’est un logiciel libre, a été repris par une collectivité, voire par une entreprise privée, par une collectivité pour l’installer chez elle, se faire homologuer elle dans son coin, pour « moi aussi j’opère ce service-là et je suis un opérateur. »

Évelyne Jardin : Combien de collectivités sont passées à S2LOW ? Ont quitté FAST et sont passées à S2LOW ?

Pascal Kuczynski : Ont quitté FAST, je ne sais pas, mais il y a plus de 6 000 collectivités aujourd’hui qui sont reliées à S2LOW et c’est le numéro 1 sur le marché. Je vais citer, par exemple, nos amis de l’Agence Landaise Pour l’Informatique ; il y a un syndicat informatique au niveau des Landes ; c’est près de 600 communes. L’Agence Landaise Pour l’Informatique a pris le logiciel libre qui s’appelle S2LOW, le même que le nôtre, l’a installé sur ses machines, s’est faite homologuer par le ministère de l’Intérieur et ces 600 collectivités travaillent sur cet outil-là, à moindre coût bien évidemment parce que le syndicat en question a investi, lui, pour faire faire des économies à ses membres, comme nous le faisons, nous, au niveau national. Et il y a une demi-douzaine de structures, comme ça, qui ont fait ça chacune de son côté.

Voilà une façon d’économiser de l’argent public et vous notez au passage que oui, ça draine beaucoup de monde. Un autre chiffre peut-être, eh bien ce sont simplement les chiffres de l’association ADULLACT, parce que des collectivités qui font du logiciel libre, je ne doute pas qu’il en ait des dizaines de milliers en France. Si on compte 70 000 ou 80 000 collectivités en tout, les communes, les départements, les syndicats, les communautés de communes, etc., ça fait un certain nombre.

De notre petite lorgnette ADULLACT, vous voyez on est très humbles, on a 300 membres ; ce n’est pas beaucoup sur 70 000 ou plus collectivités. Mais parmi ces 300 membres, il y a un certain nombre de mutualisants dont je viens de parler. La région Bourgogne-Franche-Comté, par exemple, est adhérente au travers d'un groupement d’intérêt public qui regroupe toutes les collectivités de toute cette nouvelle grande région, adhérente ADULLACT. Ça veut dire que derrière une adhésion il y a 2 000 collectivités qui sont derrière.

La Bretagne, pareil, avec le syndicat Mégalis qui fait cette chose-là. Dans l’Ardèche — vous voyez on couvre tout le territoire — il y a un syndicat informatique qui couvre plus de 500 collectivités ardéchoises, qui est adhérent et qui fait profiter ses 500 membres de nos services au travers d’une adhésion dite mutualisée. Bref ! Là on n’est plus à 300, on est à plus de 5 000 collectivités qui utilisent toutes nos services. Et ces 5 000 collectivités, je peux les citer toutes ; je les connais parce que ce sont les membres de nos membres. Donc vous voyez ce sont des cercles concentriques : 300, 5 000, vous voyez que ça s’étend déjà ; on n’est déjà plus si ridicules que ça même face à 70 000 !

Au-delà de ça, on a aussi des membres qui ne sont pas mutualisants, c’est-à-dire qui ne partagent pas nos services.

Mais l’ALPI par exemple, je la citais tout à l’heure, l’Agence Landaise Pour l’Informatique, reprend les logiciels libres de l’ADULLACT, se les installe, travaille avec. Finalement ça fait aussi partie de la sphère ADULLACT : si nous n’étions pas là ces logiciels-là n’existeraient pas et l’action de l’Agence Landaise Pour l’Informatique ne serait pas la même non plus. Ils seraient obligés, eux aussi, de bourse délier pour acheter du savoir-faire auprès d’une entreprise pour faire la même chose. Ça leur coûterait plus cher en argent public que de se servir sur notre Comptoir du Libre qui met tout ça à disposition gratuitement. Et là on arrive plutôt à 15 000 collectivités concernées par les outils de l’ADULLACT.

Alors vous voyez, via la petite lorgnette de l’ADULLACT, finalement j’arrive à un phénomène grossissant où je suis passé de 300 à 15 000 grâce au fait que c’est du logiciel libre et que ça se partage.

Évelyne Jardin : Oui. Donc il y a un effet de levier qui est généré par le logiciel libre. On voit aussi qu’il y a des territoires qui sont quand même assez en pointe et qui l’ont été depuis assez longtemps comme, je dirais, toute la façade ouest de la France. Mais certaines collectivités ne sont pas particulièrement en avance, suivez mon regard. Est-ce que vous venez titiller aussi certaines collectivités qui ne vous contactent pas ? Ou vous laissez venir à vous ?

Pascal Kuczynski : Vous savez, l’association avec ses petits moyens, nous ne sommes que neuf permanents au sein de l’association dont des alternants, enfin bref ! on a un nombre de mains limité et donc de bouches pour parler au téléphone et de bras pour et de jambes pour se déplacer sur le territoire national, ce qui fait qu’on ne peut voir tout le monde tout le temps. On aime à dorloter nos membres, donc à aller les voir régulièrement pour savoir si tout va bien, de quoi ils ont besoin, pour initier de nouveaux services, pour initier de nouvelles initiatives, comme on vient de le voir, et répondre à leurs attentes ; tant que faire se peut rencontrer, effectivement, de nouvelles collectivités. J’adorerais être invité par la mairie de Nanterre pour venir vanter les mérites de l’association ADULLACT et ce qu’ils pourraient en retirer.

Évelyne Jardin : Merci beaucoup Pascal Kuczynski pour cette invitation qu’on retransmettra à notre élu Gilles Gauché-Cazalis puisque cette émission aura une suite. En effet, nous serons accueillis au centre social et culturel Parc en ciel vendredi 16 mars à 18 heures, pour poursuivre cette discussion autour des logiciels libres et des collectivités territoriales. Donc nous accueillerons au micro notre adjoint au maire Gilles Gauché-Cazalis, responsable du numérique. Merci beaucoup, Monsieur Kuczynski, de vous être déplacé de Montpellier pour nous parler de toutes ces choses bien passionnantes. Merci.

Pascal Kuczynski : Merci à vous. À bientôt.

Open Bar Microsoft/Défense : l'enquête de la télévision publique allemande (ARD) à présent disponible en anglais

jeu, 05/24/2018 - 14:30

En février 2018 l'ARD, le service public de radiodiffusion allemande, diffusait une enquête sur la dépendance des administrations publiques vis-à-vis de Microsoft. Une partie de cette enquête est consacrée à l'Open Bar Microsoft/Défense avec notamment des interviews de la sénatrice Joëlle Garriaud-Maylam, de Leïla Miñano, journaliste, et d'Étienne Gonnu de l'April.

La vidéo est à présent disponible en anglais grâce à la Deutsche Welle (DW), le « service international de diffusion de l’Allemagne », plus spécifiquement dans sa chaîne Youtube dédiée aux documentaires. Les personnes les plus attentives noteront que la voix-off qualifie l'April de « Open source advocate » là où l'association préfère parler de free software.

Regarder l'enquête dans sa version anglaise : The Microsoft Cyber Attack

Voir la séquence sur l'Open Bar Microsoft/Défense

Cette traduction permet une diffusion bien plus large de cette enquête qui contribue à informer un public nombreux de l'extrême dépendance de certaines administrations, comme le ministère français des Armées, à Microsoft.

Apéro April le 29 juin 2018 à partir de 19h00 dans les locaux de l'April (Paris)

jeu, 05/24/2018 - 10:46
Début: 29 Juin 2018 - 19:00Fin: 29 Juin 2018 - 22:00 Un apéro April ?

Un apéro April consiste à se réunir physiquement afin de se rencontrer, de faire plus ample connaissance, d'échanger, de partager une verre et de quoi manger mais aussi de discuter sur l'actualité et les actions de l'April. Un apéro April est ouvert à toute personne qui souhaite venir, membre de l'April ou pas. N'hésitez pas à venir nous rencontrer.

L'apéro a lieu à Paris notamment parce que le local s'y trouve ainsi que les permanents et de nombreux actifs. Membre ou pas de l'April vous êtes les bienvenus. Contactez-nous pour organiser un Apéro April dans votre région.

Quand et quoi

Le prochain apéro francilien aura lieu le vendredi 29 juin 2018 à partir de 19h00 dans les locaux de l'April au 44/46 rue de l'ouest, bâtiment 8, 75014 Paris (entrée possible par la place de la Catalogne, à gauche du biocop, au niveau des autolib), le téléphone du local est le 01 78 76 92 80 en cas de besoin.

En ouverture de l'apéro nous ferons un court point sur les dossiers/actions en cours.

Pour tous les détails et vous inscrire rendez-vous sur le pad.

Présence de l'April dans le Village du Libre aux Geek Faëries 2018

mer, 05/23/2018 - 14:34
Début: 1 Juin 2018 - 00:00Fin: 3 Juin 2018 - 00:00

L'April participera au village du Libre qui aura lieu pendant les Geek Faëries dans le château de Selles-sur-Cher du 1er au 3 juin 2018.

Le Village du Libre est un lieu de rencontre et de discussions avec de nombreuses personnes représentantes ou issues du monde du libre francophone. Dans cete espace, vous pourrez discuter du libre, poser vos questions, mais aussi participer à des ateliers participatifs ou à des démonstrations de l’utilisation de certains systèmes ou logiciels.

Les Geek Faëries IRL, c’est quoi ?
C’est un voyage vers une contrée lointaine, à préparer bien à l’avance pour pouvoir réellement vivre en immersion et en costume pendant deux jours et deux nuits. Sinon c’est dans un château au bord de l’eau avec des grenouilles ! On n'y vient pas par hasard. On y vient pour :

Parcoursup publié en libre sur Framagit - Transcription du Décryptualité du 21 mai 2018

mer, 05/23/2018 - 11:06


Titre : Décryptualité du 21 mai 2018 - Parcoursup publié en libre sur Framagit
Intervenants : Luc- Mag - Manu - Nico
Lieu : April - Studio d'enregistrement
Date : mai 2018
Durée : 15 min
Écouter ou télécharger le podcast
Revue de presse pour la semaine 20 de l'année 2018
Licence de la transcription : Verbatim
Illustration : Logo de Parcoursup Wikipedia, marque déposée. Logo de Framasoft inspiré de la mascotte historique de LL. de Mars Wikipedia, licence CC BY-SA 4.0
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas forcément celles de l'April.

Description

Parcoursup, le logiciel du ministère de l'Enseignement supérieur qui gère les affectations des étudiants en fonction de leurs souhaits est publié en libre.

Transcription

Luc : Décryptualité.

Nico : Le podcast qui décrypte l’actualité des libertés numériques.

Luc : Semaine 20. Salut Nico. On change de sens !

Nico : Salut Mag.

Mag : Salut Manu.

Manu : Salut Luc.

Luc : De quoi parle-t-on cette semaine ? De la revue de presse pour commencer, bien sûr. Qu’est-ce qu’il y a au programme ?

Manu : Cinq articles sympathiques.

Mag : Programmez!, « Mozilla publie un rapport pour faciliter la mise en place de projets », par Frederic Mazue.

Manu : C’est tout un PDF qui va vous expliquer un petit peu comment vous construisez votre projet, libre espérons-le.

Mag : La gazette.fr, « Dématérialisation : "Le potentiel de gains pour l’usager et pour les services publics est extraordinaire" », par Gabriel Zignani Romain Mazon.

Manu : C’est le gros sujet du moment. Les administrations s’y mettent, au logiciel libre, et elles en mangent. Et là, la dématérialisation va dans ce sens-là, l’open data, les données qui vont vers les citoyens. C’est intéressant et ça continue derrière avec l’article suivant.

Mag : ZDNet France, « Outils publics : la DINSIC publie son guide en matière d’ouverture du code », par Louis Adam.

Manu : Tu te rappelles de ce que ça veut dire DINSIC [Direction interministérielle du numérique et du système d’information et de communication de l’État] ?

Luc : Direction interministérielle be, be, be…

Manu : Numérique.

Luc : Je ne sais.

Nico : Non plus ! C'est de l'information.

Luc : En gros c’est la DSI de l’État quoi !

Mag : Le Journal de Montréal, « Montréal : une nouvelle politique sur les logiciels libres », par Sarah Daoust-Braun.

Manu : Là c’est de l’autre côté de l’Atlantique, nos cousins, et ils se mettent au logiciel libre aussi de manière assez féroce dans la ville, dans la communauté. Donc ce n’est pas mal aussi, il faut qu’on prenne exemple.

Mag : Et le dernier article. Association mode d’emploi, « L’éducation populaire se réinvente », par Michel Lulek.

Manu : C’est assez général. L’éducation populaire ça touche tout le monde, finalement, et ce qui est intéressant c’est qu’ils s’intéressent au numérique par le biais du logiciel libre, donc on aime bien.

Luc : Très bien. De quoi parle-t-on cette semaine ?

Mag : D’ouverture de code ?

Nico : Et de Parcoursup1 du coup.

Manu : Oui, il y a du troll, là.

Luc : Ça discute assez ferme. Les gens s’empoignent assez sévèrement. Donc Parcoursup déjà pour replacer, c’est quoi ?

Manu : La suite d’APB ?

Nico : C’est ça, c’est le remplaçant d’APB, donc Admission Post-Bac, qui était l’ancien algorithme pour sélectionner toutes les filières qui n’étaient pas concernées par l’université. Et maintenant il y a Parcoursup pour ajouter de la sélection.

Luc : Donc il s’agit d’un code. On se souvient qu’APB ça avait été tout un bordel parce qu’il avait fallu un peu tanner le gouvernement, le ministère de l’Éducation, pour obtenir le code.

Nico : Sous format PDF.

Luc : Ils l’avaient, voilà, fourni sous un format le moins exploitable possible, donc ils n’étaient pas de très bonne volonté. Et là, bonne nouvelle, ils publient le code.

Nico : Bonne nouvelle, oui et non. Il y a eu pas mal de critiques quand même. Ils l’ont publié une fois que tout été terminé puisque Parcoursup finissait aujourd’hui pour la phase de sélection, donc le 22 mai, et ils ont publié ça le jour même ; donc les étudiants étaient un peu « vénères » de ne pas avoir eu accès au code source avant de subir.

Manu : Ils sont en train de mettre en place les étudiants qui vont rentrer à l’université en septembre.

Nico : À l’université en septembre. Voilà.

Manu : C’est en train d’être mis en place en ce moment. L’algorithme, enfin le logiciel qui est derrière a été installé, configuré, et les gars sont en train de se taper les bugs.

Nico : C’est ça. Et puis surtout que personne ne connaissait l’algorithme, comment ça fonctionnait et ça a été publié après coup.

Luc : C’était pareil avec APB. Il y a un enjeu à savoir comment ça marche puisque cet algorithme, ce système, décide, au final, de qui va aller où. Évidemment les choix sont là, mais il y a toute une série de critères qu’on ne connaît pas, qui vont être obscurs. Connaître le code c’est connaître les critères et savoir comment ça marche.

Mag : Finalement c’est assez positif. Ça va peut-être enlever toutes les accointances, les messages qui étaient faits sous le chapeau, la corruption…

Manu : L’arbitraire.

Luc : Oui, espérons. Peut-être !

Nico : Il manque quand même un morceau.

Luc : En tout cas pas pour cette année.

Nico : Pas pour cette année. En plus, ils n’ont donné que l’algorithme qui est national ; ils n’ont pas donné les algorithmes locaux à chaque université. Donc la véritable partie de sélection n’est pas encore publique.

Mag : Il n’y a sélection que s’il y a trop d’élèves par rapport aux places qui sont proposées !

Nico : Le gros changement, effectivement sur les filières qu’ils appellent en tension, celles où il y a beaucoup plus de candidats que de places, pour elles il y aura vraiment de la sélection ; mais ça change aussi sur d’autres filières puisqu’il va y avoir des critères discrétionnaires de la part des lycées ou autres, puisque le conseil de classe va avoir aussi son mot à dire sur « est-ce que l’orientation que tu choisis est logique ou non, conforme ou pas à ce que tu as déjà fait pendant tes trois années de lycée ».

Manu : Et tout ça, ça nous concerne, parce que Parcoursup est déployé sous forme d’algorithme et de logiciel libre, mais en plus de ça, il est en train d’être déployé sur une plateforme.

Mag : Oui. Ils l’ont mis sur le Framagit2 ; Git c’est une plateforme qui héberge du logiciel libre.

Manu : Du code source.

Mag : Du code source. Et Framagit c’est la plateforme de Framasoft3.

Luc : Framasoft dont on parle très régulièrement, qui sont des amis — Magali tu as un pied là-bas —, qui proposent plein de services libres et qui sont derrière l’initiative CHATONS4 qui est ?

Mag : Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires. Tu ne le sais toujours pas Luc !

Luc : Non ; ça ne rentre pas ! Je n'y arrive pas.

Manu : Non ! Il n’y a que toi qui le sais ici, en fait !

Luc : Voilà. Du coup des engagements éthiques très forts. C’est assez rigolo que le ministère ait décidé de publier sur cette plateforme qui n’est pas une grosse plateforme.

Manu : Sachant qu’il y a eu des soucis.

Mag : Oui parce qu’en fait ils ont publié quelque chose, mais c’était un lien qui était privé, donc qui n’était pas accessible.

Nico : Oui. Et après il y a eu aussi un peu une polémique derrière. Le lien était privé.

Luc : Ça veut dire quoi le lien était privé ?

Mag : Ça c’est une mauvaise configuration.

Luc : De la part de qui ?

Nico : C’était une mauvaise configuration de la part de ceux qui ont créé le dépôt. En fait ils ont créé le dépôt de code ; ils l’ont publié dedans. Eux avaient accès à leur code donc ils ont dit : « Tiens, on envoie le lien à la presse » et puis en fait, tous ceux qui se connectaient dessus tombaient sur une page « vous n’avez pas le droit d’avoir accès à ce dossier ».

Manu : Donc la presse se connectait sur Framagit, sur le projet de Parcoursup qui était hébergé sur Framagit, mais n’y avait pas accès.

Nico : Mais n’y avait pas accès. Voilà !

Manu : Pour le coup, les gars de Framasoft ont dû s’arracher les cheveux parce qu’il y a plein de gens qui arrivaient sur leur plateforme et qui n’avaient accès à rien !

Nico : Du coup on revenait vers Framasoft ; on ne pensait pas à aller contacter les responsables du dépôt. Tout le monde tapait sur Framasoft : « Hé ! Ça ne marche pas votre truc ! », alors que non, non ce n’est pas nous ; c’était…

Manu : C’est du logiciel libre, donc ça ne marche pas !

Manu : Voilà ! C’était la DINSIC.

Luc : Il faut penser à se déconnecter avant de tester le lien !

Nico : Voilà !

Manu : Donc ça a été changé finalement. Ils ont mis le projet en public.

Mag : Ouais.

Nico : Voilà ! Et ce qu’il faut aussi noter c’est que le projet a été libéré sous licence libre GPLv35, donc ils ont aussi bien choisi leur licence, pris quelque chose qui oblige à redistribuer les modifications, etc. Donc c’est quand même un sacré coup de chapeau à cette équipe-là qui a publié.

Mag : On sent qu’il y a une bonne volonté derrière cette mise en place, même si, eh bien l’algorithme ne plaît pas à tout le monde.

Manu : Ça va même plus loin que ça. Il y a des trolls et des critiques dans tous les sens : les étudiants, les parents d’élèves, les profs, les syndicats, sont un petit furieux de voir ce truc se mettre en place, c’est-à-dire Parcoursup.

Nico : Il y a eu pas mal de rébellion, de manifestations et un peu tout ce qui se passe aujourd’hui sur la fameuse loi ORE6 qui essaye, qui refond toute l’université. Tous les blocages qu’on voit dans les lycées et autres, les universités et les facs, sont liés aussi à la mise en place de Parcoursup et au ras-le-bol général autour de toute la gestion de l’Éducation nationale.

Manu : Mais donc, pour le coup, ça veut dire que le logiciel libre, et Framasoft qui héberge du logiciel libre, travaillent pour une initiative qui ne plaît pas à beaucoup de citoyens. C’est moche !

Nico : En tout cas, la question a été soulevée.

Mag : Franchement, ils ont un Git, le gouvernement, qui leur est fourni par Etalab. La question c’est pourquoi est-ce qu’ils ne l’ont pas mis sur celui d’Etalab ?

Manu : Etalab7 c’est une des administrations de l’État.

Mag : Exactement.

Luc : Une agence.

Mag : Après maintenant, ce n’est pas à Framasoft de décider qui utilise ses services ou pas.

Manu : Ils pourraient le faire !

Luc : Je pense que le gouvernement, le ministère, l’a mis sur Framagit pour faire un coup de pub. Pour dire on fait du Libre, on le met sur une plateforme super libre, chez des vrais militants, et on montre que notre volonté est là.

Manu : Ce qui est bien.

Luc : Ce qui est bien ; alors il y a des gens qui sont contre !

Nico : Sinon ça a beaucoup réagi parce que le milieu militant, libriste, est aussi assez militant au niveau de l’Éducation nationale.

Manu : Sachant que Framasoft a des racines dans l’Éducation.

Nico : Fra – Ma.

Manu : Frama ça veut dire français, maths.

Nico : C’est ça. Ça a quand même cristallisé pas mal de tensions puisqu’on se retrouve avec un logiciel qui est vu un peu comme le démon par beaucoup de monde et, du coup, il y a eu des demandes, presque officielles on va dire, de « vous devez supprimer ce dépôt-là parce que ce n’est pas possible que vous cautionniez le gouvernement en hébergeant ce code-là ».

Mag : C’est beau la tolérance !

Manu : C’est de la tolérance ! C’est de la tolérance ! En même temps, peut-être que cet algorithme est affreux ; il va détruire des vies de petits jeunes qui en veulent.

Luc : Framasoft, ce sont des « social-traîtres ».

Manu : C’est ça en fait qui se passe.

Luc : Magali, comme tu as un pied chez Framasoft, tu es sociale-traître également, en fait !

Manu : Arrête les trolls ! Il trolle le Luc !

Mag : Tu trolles. J’encourage nos auditeurs à aller regarder sur le Framablog, en 2016, le 25 novembre, un article qui s’appelait « Pourquoi Framasoft n’ira plus prendre le thé au ministère de l’Éducation »8, qui pourra vous montrer quelle est la position de Framasoft face au ministère de l’Éducation. Effectivement, on a souvent eu l’impression d’être la gentille poire, le greenwashing, enfin tous les mots que tu veux !

Luc : L’openwashing.

Mag : L’openwashing du ministère. En attendant, ce n’est pas à Framasoft de modérer ce genre de personnes à utiliser ces services-là. On a une charte chez les CHATONS qui prône la tolérance. Donc non !

Luc : Qui prône la mise en avant des libertés fondamentales. Donc le droit d’expression est une liberté fondamentale.

Nico : Après, c’est vrai que la DINSIC aurait quand même pu être sympa, demander peut-être à Framasoft avant « est-ce qu’on peut lancer ça ? »

Luc : Ils auraient dû mieux vérifier leur lien, parce que ça !

Nico : Déjà vérifier le lien.

Luc : Il y a quelqu'un qui s’est quand même planté quoi !

Nico : Forcément, c’est aussi quelque chose qui va faire beaucoup de buzz, donc qui va stresser beaucoup l’infrastructure des CHATONS et consommer beaucoup de temps, d’argent.

Manu : Oui, mais ça les met en avant.

Nico : Ça les met en avant ; on espère. La DINSIC aurait peut-être dû consulter Frama avant. On espère, du coup, qu’ils vont aussi faire des dons ou, en tout cas, soutenir le Chaton. « OK, on l’utilise », mais c’est quand même pas mal de contribuer, de filer de l’argent, des ressources, des serveurs, je ne sais pas quoi. C’est vrai qu’ils auraient pu être un peu plus précautionneux dans leur manière de gérer…

Manu : Mais ça c’est un classique ! C’est après coup qu’on s’aperçoit des problèmes. Ils ont déployé leur code source en étant contents, probablement, de ce qu’ils faisaient. Derrière ils n’ont pas tout vérifié.

Luc : Ça veut dire qu’il y a un chef qui n’a pas fait de double vérification. Nous quand on vérifie, on fait ça !

Manu : C’est un classique ! Ou alors il a vérifié, mais comme il était connecté au projet, il l’a vu, il s’est dit « c’est bon ; j’ai cliqué sur le lien. »

Luc : Quand on fait une opération de com, on est quand même censé faire gaffe. Bon ! C’est finalement pas très important, tout le monde s’est moqué, etc., mais c’est quand même assez anecdotique par rapport au fait qu’ils libèrent ce code et donc super ! Même si, effectivement, ce code est contesté dans son objectif et dans sa façon de faire, il y a justement cet intérêt énorme, c’est qu’il est, aujourd’hui, transparent. Alors il ne l’a pas été pour cette année puisqu’il arrive trop tard, mais, pour l’année prochaine et pour la suite, maintenant on peut regarder comment ça marche pour de vrai. Du coup, on est quand même en mesure de contester avec des billes sérieuses, alors qu’avant, quand on avait un système totalement opaque, on pouvait dire « oui, mais ceci, cela » ; les autres disaient : « Non, de toutes façons vous ne savez pas de quoi vous parlez parce que vous n’avez pas les billes ! »

Manu : Pour terminer sur l’éducation, on peut éventuellement aborder le fait que, par ailleurs, il y a des gros problèmes dans l’éducation qui sont un peu inhérents. Il y a un taux d’échec, en fait, entre les années.

Mag : En licence, de 60 %, qui est énorme !

Manu : 60 % des jeunes qui rentrent dans ces filières-là qui n’en sortent pas avec un diplôme ; c’est quand même terrible ! Derrière, on a consulté tous des articles qui montraient qu’il avait 40 000 élèves de plus qui arrivent dans les universités parce qu’il y a eu un baby boom dans les années 2000 et donc là, il faut les accueillir. Et Parcoursup ou pas Parcoursup, il va y avoir des problèmes !

Nico : Il y a beaucoup plus d’étudiants à rentrer et il y a aussi le problème qu’il y a de moins de moins de jobs à la sortie. C’est bien joli d’avoir des centaines de milliers d’étudiants d’un côté, mais s’il n’y a pas de boulot de l’autre, eh bien ça ne fera que des chômeurs, en fait. Le problème est aussi là. Il faut des moyens pour l’éducation ; il faut peut-être plus d’universités, peut-être même complètement refondre notre société pour ne pas tout miser sur le travail et trouver d’autres choses alternatives.

Luc : Le problème de refonte totale de la société c’est toujours un peu compliqué quoi !

Nico : Là, c’est vrai que l’avenir à l’Éducation nationale ne va pas être très sympa je crois !

Luc : L’université ce n’est pas l’Éducation nationale, c’est l’Éducation supérieure, non ? Je ne sais pas si c’est le même ministère et tout. Je n’y connais rien.

Mag : En tout cas c’est Frédérique Vidal, la ministre de l’Enseignement supérieur et de la Recherche qui a envoyé ce mémo avec Mounir Mahjoubi. Donc effectivement, ce n’est plus l’Éducation nationale, c’est l’Enseignement supérieur.

Manu : On peut poursuivre avec le logiciel libre en général et constater que dans le logiciel libre c’est un vrai problème qui existe depuis le début, c’est que le logiciel libre peut être utilisé pour des choses qui sont regrettables parfois.

Luc : Complètement contestables ! Le logiciel libre en lui-même c’est du code, donc on peut l’utiliser pour ce qu’on veut et c’est même une des libertés essentielles, une des quatre libertés.

Mag : C’est comme si tu disais que le stylo-bille est regrettable parce qu’il peut être utilisé pour envoyer des lettres d’insultes. Non, le logiciel libre c’est juste un outil !

Manu : Oui. Mais les gars qui font des logiciels libres ont décidé de laisser cet outil à qui le veut, grâce aux licences de logiciel libre, alors qu’ils auraient pu mettre des clauses qui interdisaient certains usages par exemple.

Nico : Il y a des logiciels qui l’ont fait. La licence Java, à un certain moment, interdisait l’usage dans les centrales nucléaires. Il y a la licence JSON aujourd’hui ; on n’a pas le droit de s’en servir pour faire le mal. Alors je vous laisse définir le mal !

Manu : C’est comme le Jedi ; c’est obligé.

Nico : Selon le côté de la barrière derrière lequel vous vous trouvez, je pense que vous n’allez pas du tout lire la licence de la même manière.

Luc : C’est pour les gens sadomasochistes que c’est compliqué parce que tu fais du bien en faisant du mal !

Manu : Pour le coup, ça ce n’est pas du logiciel libre.

Nico : Ce n’est pas du logiciel libre ; ça a été acté par et l’OSI [Open Systems Interconnection] et la FSF [Free Software Foundation] qui dit que non, on ne peut pas réduire l’usage du logiciel à ce qu’on considère bien ou mal, sinon ça ne fait pas un logiciel libre. Donc JSON n’est pas une licence libre.

Luc : On rappelle que les gendarmes utilisent massivement du logiciel libre, y compris les gendarmes mobiles. Donc quand ils ont chopé un zadiste, qu'ils lui ont pété la gueule et qu'ils l’arrêtent, etc., ils font ça sur des logiciels libres.

Manu : Donc c’est admirable d’utiliser du logiciel libre pour leur métier, mais leur métier parfois peut faire des choses qui sont…

Luc : On peut ! C’est à mon sens un des trucs intéressant c’est qu’on n’est pas obligé de s’entendre pour partager ces choses-là. Dans les cas de Parcoursup, comme je le disais tout à l’heure, le gros intérêt c’est que c’est transparent. Donc ça, c’est quand même quelque chose à mettre au crédit du ministère, c’est que maintenant, on peut discuter réellement sur des éléments sérieux au lieu d’être dans l’obscurité. Ça c’est déjà énorme.

Mag : Et du coup, on va aussi pouvoir améliorer cet algorithme.

Manu : Potentiellement.

Mag : Puisqu’on va pouvoir l’étudier.

Manu : On peut rajouter que Framasoft, eux, ils défendent les libertés fondamentales. Il y a déjà eu des sujets comme ça ; alors c’était peut-être sur Mastodon où il y avait des gens qui parlaient, qui discutaient, des néonazis ou je ne sais plus.

Nico : C’était même sur les CHATONS, avec les Colibris, en fait, qui était porté par une personne qui avait tenu des propos homophobes il y a quelques dizaines d’années. Et il y avait eu une guéguerre en disant « est-ce que le fait d’accueillir une personne de ce type-là dans les CHATONS c’était cautionner ses actes, ou est-ce qu’il fallait carrément exclure ? »

Luc : Ou ses paroles d’ailleurs.

Nico : Ou ses paroles. Est-ce qu’il fallait exclure tout un pan de CHATONS et un Chaton complet juste parce qu’une personne s’était mal comportée ?

Manu : Qu’est-ce qui s’est passé alors à Frama ?

Nico : Il y a eu toute une discussion en interne qui a conduit à dire c’était une personne individuelle, ce n’était pas le collectif qui portait ces idées-là, donc il n’y a pas de raison de les exclure. Et dans toute communauté qui se regroupe derrière un sujet, effectivement on peut se retrouver avec des parasites ou des problèmes où des personnes, sur d’autres sujets, sont problématiques. Mais ça ne remet pas en cause la liberté. Quand on tient des propos homophobes, ça ne remet pas en question son usage du logiciel libre par exemple.

Mag : On ne peut pas généraliser à une instance ou à un groupe ou à une association les propos d’une personne, surtout des propos qui ont eu lieu il y a longtemps. Vouloir exclure cette association sous prétexte de ce que une personne fait, eh bien là on empêche totalement la liberté d’expression.

Luc : Et puis, en plus de ça, tu juges les gens par rapport à ce qu’ils font là maintenant, tout de suite, dans le cadre qui t’intéresse. C’est-à-dire que même si cette personne a des comportements que tu n’apprécies pas un, est-ce qu’ils sont légaux au regard de la loi ? Et s’ils le sont mais qu’elle les a tenus en dehors de ton service, de ton Mastodon, tu n’as pas à lui reprocher des éléments ; tu lui reproches des faits ! Sinon ça s’appelle du délit d’opinion et c’est un truc qui est quand même assez significatif de la dictature.

Manu : Dans le pays de Voltaire, ce serait dommage d’arrêter les opinions des autres juste parce qu’on ne les aime pas.

Luc : Ça montre la difficulté qu’il peut y avoir à communiquer ensemble. On se retrouve à se rendre compte que le monde est compliqué et qu’il y a plein de gens qu’on n’aime pas qui peuvent s’exprimer comme nous. Donc ça soulève ces questions-là ; moi je trouve ça assez intéressant.

Manu : À la semaine prochaine.

Luc : À la semaine prochaine.

Mag : Salut.

Nico : Bonne semaine à tous.

Blockchain expliquée à mes grands-parents - Louis Tournayre

mer, 05/23/2018 - 07:52


Titre : La blockchain expliquée à mes grands-parents
Intervenant : Louis Tournayre
Lieu : Paris - Palais des Congrès - Conférence Devoxx France
Date : avril 2018
Durée : 13 min 43
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : Theymos from Bitcoin wiki vectorization, travail personnel, Wikipedia. Licence CC BY 3.0
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des intervenants et ne rejoignent pas forcément celles de l'April.

Description

Mes grands-parents sont hyper-modernes (pour leur âge). Ils ont de nombreuses qualités et beaucoup de choses à nous transmettre mais quand ils m'ont demandé de leur expliquer la blockchain j’ai longtemps cherché mes mots.

Transcription

Bonjour à tous. Merci d’être là, ça fait super plaisir de voir tout ce monde. C’est super. Bon ! J’ai juste un petit regret il n’y a pas mes grands-parents, c’est un peu pour eux quand même ! L’objectif de ce quickie c’est d’expliquer ce que c’est que la blockchain, de manière simple, sans utiliser de termes techniques, en fait pour des personnes qui ne connaissent pas l’informatique. Donc on ne va pas parler de tout ce qui est cryptographie et autres, ça va rester relativement simple, mais on va expliquer les grands principes.

Qui je suis ? Moi je m’appelle Louis Tournayre, je travaille à Zenika à Lyon. Voilà. C’était la petite pub.

À quoi cela sert ?

Maintenant la blockchain pour l’expliquer je me suis dit que le plus simple c’était de parler de cas concrets, d’expliquer, en fait, en quoi ça servait. Donc quelques cas d’usage.

Le premier. Je ne sais pas si vous vous rappelez, en 2014 il y avait la crise ukrainienne ; vous vous rappelez forcément. On a vu apparaître ces petites pancartes-là avec ces codes. Vous savez ce que c’est ? En fait, ça ce sont des adresses pour qu’on puisse leur transférer de l’argent directement via une cryptomonnaie1 qu’on appelle le bitcoin2. Donc le premier cas d’usage, en fait à la base ça a été créé pour ça, c’est pour faire des transferts d’argent via une monnaie immatérielle, une monnaie virtuelle ; des transferts qui soient sécurisés, qui soient indépendants de banques, d’États, qui soient souples, sans aucune contrainte. Donc ça c’est vraiment le premier cas d’usage. Ce sont des transferts d’argent, des transferts de monnaie virtuelle.

Un autre cas d’usage aussi, qu’on a derrière, en fait c’est parce que la blockchain ça enregistre, c’est d’avoir des registres dans lesquels on mette des données qui soient infalsifiables. Par exemple un état-civil. Un état-civil ne change pas : on naît un jour, à un certain lieu. Ça ce sont des données qui ne doivent pas bouger. Ce sont des données qui sont partagées, auxquelles tout le monde peut accéder. Donc un cas d’usage c’est, par exemple, un registre d’état civil ; typiquement ça s’y prête bien.

Il y a le cadastre aussi qui s’y prête énormément. Vous pouvez dire en France on n’a pas besoin de ça, on a des autorités qui font ça ; oui, en France on a ça ; ce n’est pas le cas partout ! Au Ghana par exemple, ils ont lancé une initiative où ils sont en train de mettre dans la blockchain le cadastre pour que ces données-là soient partagées par tous, on ne puisse pas se dire d’un seul coup tiens ! cette terre-là m’appartient ; non, ça a été enregistré, c’est infalsifiable, c’est consultable, c’est partageable.

On aurait aussi d’autres cas d’usage, par exemple vous vous rappelez, il n’y a pas si longtemps il y a eu la crise du lait. On aurait aimé savoir d’où venait le lait qu’on avait acheté et on pourrait mettre tous les éléments logistiques, faire une traçabilité complète de ce qui a pu se passer à ce moment-là dans la blockchain. Il y a déjà des initiatives qui existent dans ce genre-là, pas spécifiquement pour le lait, mais il y a déjà des sociétés de faire de la traçabilité via de la blockchain.

On pourrait avoir aussi des élections qui sont sans bureau de vote. C’est-à-dire qu’on n’aurait plus besoin d’avoir un lieu physique ; on aurait des espèces de machines à voter mais qui ne seraient pas dans un lieu, qui seraient sûres, qui seraient infalsifiables, qui seraient sécurisables. Il y a quelques initiatives qui vont dans ce sens mais c’est un peu plus long, un peu plus compliqué ; ça soulève d’autres difficultés techniques.

On pourrait avoir, et on commence aussi à avoir aussi, des contrats qui s’activent automatiquement. Qu’est-ce que c’est qu’un contrat ? Le cas qu’on a aujourd’hui : par exemple il y a AXA qui a mis en place – alors que ça ne marche que sur certains vols – une assurance qu’on peut prendre sur le vol qui, en cas de retard, va nous rembourser du montant sur lequel on est assuré. Notre contrat est directement enregistré dans la blockchain, il a des critères de déclenchement et si jamais notre vol a plus de deux heures de retard par exemple, automatiquement il va s’enclencher et on aura notre argent qui sera transféré.

Ça, ce sont quelques cas d’utilisation, mais en fait il y en a plein d’autres.

Imaginez que vous avez un grand livre, ouvert, infalsifiable, que tout le monde peut lire, tout le monde peut écrire. Qu’est-ce que vous en faites ? Il y a vraiment plein de cas d’usage. Là on est au début ; il y a plein de nouvelles choses qui vont arriver autour de ça.

Les principes fondateurs

Maintenant, si on va un peu plus loin sur la blockchain, sur quoi c’est fondé ? Quels sont les principes de base qui font que ça marche. Il y en a trois, trois grands principes.

Le premier principe c’est que un système décentralisé. Ça veut dire quoi un système décentralisé ? En fait, on a un système qui est constitué d’un ensemble d’ordinateurs, un peu comme vous là, vous êtes tous là, vous êtes interconnectés, vous pouvez parler directement entre vous, vous n’avez pas besoin de passer par un tiers pour vous parler. D’accord ? Ce que quelqu’un vous a dit vous pouvez le partager avec quelqu’un d’autre. Vos données, pareil, elles sont distribuées, elles sont répliquées sur toutes les machines, sur toutes les personnes. Et quand il y a une décision à prendre, eh bien il y a un consensus majoritaire qui valide la décision. Ce n’est pas une personne dans son coin, ce n’est pas une autorité de confiance qui dit « c’est comme ça ». C’est vous tous, ici présents, c’est la majorité qui dit « oui, c’est ça, je le valide. »

L’autre point super important c’est que les données sont infalsifiables et inaltérables. En fait, ce fameux livre, ce fameux registre, on ne peut faire que écrire : on ne peut pas modifier, on ne peut pas effacer, on ne pas supprimer des pages. Et on écrit, on écrit, on ne fait que écrire !

Un troisième grand principe c’est que toutes les données, ce livre, tout le monde peut le consulter ; tout le monde peut y accéder ; tout le monde peut le voir. Maintenant il y a des variantes, aujourd’hui on a des blockchains dites semi-privées, voire privées, c’est un détournement de la blockchain originale, mais ça correspond à certains besoins spécifiques.

Comment ça marche techniquement ?

Là je vais essayer, pareil, pas de termes techniques. La blockchain, en fait, il y a deux mots dans blockchain. Le premier c’est « block », c’est-à-dire ce sont des blocs de données. Donc nos données, notre registre c’est ça. Et donc, première chose, on a des données qu’on va écrire. Ces données, elles ont ce qu’on appelle une empreinte. Une empreinte, je vais en parler tout de suite, une empreinte c’est quelque chose en fait d’unique, de répétable. Je ne sais pas si vous voyez, quand je tape quelque chose, l’empreinte est calculée au fur et à mesure et elle change. À chaque fois elle est répétable, c’est-à-dire que si je mets le même texte, la même donnée, j’aurai la même empreinte. Si je change la moindre chose, mon empreinte va changer. Donc cette empreinte, en fait, elle est directement liée à la donnée. C’est une sorte de signature de la donnée. Par contre on ne peut pas, à partir de l’empreinte, calculer la donnée ; on pourrait, mais c’est très compliqué et ça coûte très cher, donc on ne le fait pas.

Et on a ces fameuses empreintes, qui sont là, qui vont nous servir à lier les données. Et c’est là où on a, justement, la seconde partie, la chaîne. On a chaîné les éléments par nos empreintes. Donc notre blockchain ce sont des blocs de données qui sont reliés les uns aux autres via les empreintes. Donc le bloc 1 il a une empreinte qui a été calculée. Le bloc 2 derrière, il rappelle en fait l’empreinte précédente. Il a ses nouvelles données et son nouveau bloc.

Du coup, si on s’amuse à changer un bloc, eh bien on va casser la chaîne parce que ce bloc aura une nouvelle empreinte ; du coup le bloc 3 qui était après, qui référençait le bloc 2, il ne référence que le bloc 2. Il ne référence pas le bloc 2 bis. Donc si on change un bloc, on casse notre chaîne.

Qu’est-ce qui m’empêche moi après de dire c’est intéressant de changer un bloc ; je peux dire voilà, j’ai fait une transaction il y a quelque temps, eh bien j’ai envie de réécrire l’histoire. Cette transaction j’ai touché l’argent, je l’ai retiré, voilà, mais je veux réécrire l’histoire parce que, comme ça, je vais à nouveau avoir mes bitcoins par exemple ou mes ethereums3. Eh bien pour faire ça, il faut que je réécrive tous les blocs suivants. Et là on va se retrouver avec des conflits, on aura une chaîne qui sera historique et puis on aura une nouvelle chaîne, que j’aurais essayé de forger moi-même, qui sera fausse en l’occurrence. Comment est-ce qu’on va décider quelle est la chaîne qui est valide ? Le consensus, en l’occurrence, c’est de se dire on prend la plus grande chaîne et c’est elle qui a raison. Du coup, moi, qu’est-ce qui m’empêche de calculer plus vite, de construire une chaîne plus grande en fait ?

Et c’est là qu’on a un second mécanisme de protection. Le premier mécanisme historique de protection, c’est la preuve de travail, vous pouvez entendre en anglais the proof of work, donc c’est le premier mécanisme, il a presque dix ans aujourd’hui, il est super fiable, mais il y en a d’autres parce qu’il a des inconvénients.

La preuve de travail, le principe c’est qu’on a une opération de calcul qui est très compliquée à réaliser, qui prend du temps, et c’est dans le protocole. Même si on ajoute des machines, on va se débrouiller pour avoir toujours le même temps en complexifiant le calcul. Donc pour arriver à faire une chaîne la plus longue il faut que je sois capable de miner plus vite, d’accord ? Et pour miner plus vite il faut que j’ai des supercalculateurs et, en fait, il faut que j’ai plus de la majorité des ordinateurs qui minent aujourd’hui. Ce qui est complètement improbable, en l’occurrence pour moi.

Si on rentre un peu plus dans le détail sur comment fonctionne notre fameuse preuve de travail. Vous vous rappelez l’empreinte tout à l’heure ? Elle commence par des zéros. Eh bien la difficulté qui est mise, le challenge qui est mis, c’est faire en sorte qu’il y ait une empreinte qui a des zéros et pour ça on a un seul critère, en fait, c’est la donnée. Sauf qu’on ajoute à cette donnée ce qu’on appelle un grain de sable, en anglais, en fait, ça ne s’appelle un grain de sable, ça s’appelle un nonce4, vous verrez parfois ce terme. Ce grain de sable c’est le petit élément qu’on va mettre, qui va perturber mon calcul. Donc on va mettre à la fois la donnée et le grain de sable et on va calculer l’empreinte, pas simplement sur la donnée mais sur ces deux éléments et on va s’amuser à faire varier, en fait, notre grain de sable pour arriver à avoir une empreinte qui commence par des zéros. Pas 4 zéros parce que 4 zéros c’est super facile, enfin super facile ça prend quelques secondes à calculer en fait, mais si on met beaucoup, beaucoup de zéros ça devient de plus en plus long à calculer, le challenge est de plus en plus difficile. Ça c’est le mécanisme de la preuve de travail qui permet de s’assurer que notre empreinte est valide et qu’elle est compliquée à trouver.

Après on a un autre mécanisme, alors il y en d’autres, il y en a plein d’autres, mais il y en a un qui est très intéressant qui s’appelle la preuve d’enjeu qui va bientôt arriver sur Ethereum. Là, le principe, c’est au lieu d’avoir besoin d'une forte puissance de calcul, en fait on a besoin d’avoir de la loyauté. On va valoriser la loyauté ; la loyauté c’est le fait de posséder des monnaies, des token en fait, des jetons. Plus on a de jetons, plus on a une probabilité importante d’arriver à faire le calcul. Et il y a deux critères qui vont jouer, il y a le critère « j’ai beaucoup de jetons » qui va monter notre probabilité, qui va réduire, en fait, le pseudo-challenge ; et puis un second critère qui est le temps, en fait, qui va faire un peu notre aléa, qui va faire que c’est untel ou untel qui va pouvoir valider son bloc.

L’intérêt est assez conséquent, je n’en ai pas parlé, mais quand vous minez, en fait vous consommez énormément d’énergie. Il y a une espèce d’escalade aujourd’hui, il y a de plus en plus de machines qui minent, il y a des fermes de minage, comme des fermes de vaches tout à l’heure pour le lait, et ces fermes de minage consomment énormément d’énergie, donc elles s’installent là où l’énergie coûte le moins cher, donc en Chine — mais même en Chine ça pose des problèmes d’énergie ; dans les pays du Nord où il n’y a pas de problèmes de refroidissement ; mais du coup, ce sont des catastrophes écologiques. Je crois que l’année dernière, grosso modo, la consommation d’énergie qui a été utilisée pour miner du bitcoin c’était l’équivalent de la consommation de l’Irlande. Donc c’est une catastrophe !

Donc ça c’est une alternative qui est absolument intéressante.

Et après

Ça va poser pas mal d’autres questions. Là on a parlé de monnaie, on a parlé de vote, on a parlé de systèmes décentralisés comme les cadastres et autres qui pourraient contenir toutes nos données, cette espèce de super registre en fait. Mais ça se met, si on réfléchit un peu plus loin, à changer notre système de gouvernance. Aujourd’hui on a une autorité centrale avec des personnes qu’on choisit, qu’on élit, qui nous représentent, mais on a ces points centraux et on a cette chaîne de confiance qui est basée sur des autorités. Demain, avec ce qu’apporte la blockchain, ces systèmes de confiance qui sont centralisés, techniquement on n’en a plus besoin. Ce n’est plus une autorité, on a un système complètement décentralisé avec un consensus qu’on décide d’adopter, tous, un consensus majoritaire qui détermine les conditions qui vont faire qu’on va accepter ça ou ça.

Donc demain, quels seront les impacts que ça aura sur la société ? Qu’est-ce que ça va changer ? Il y a de pleins champs des possibles. Si on essaie de se projeter — aujourd’hui moi je ne sais pas ce que ça va faire —, mais je pense que ça va être une prochaine révolution. De la même manière qu’Internet a changé beaucoup de choses pour nous, la blockchain5 va certainement changer beaucoup de choses, va certainement apporter beaucoup de choses nouvelles, avec d’autres difficultés, bien évidemment, d’autres challenges qu’on aura à régler, mais il y a plein de choses à faire, il y a plein de façons de voir les choses.

Je vous remercie de votre attention. J’ai été un peu plus court que ce que je pensais.

[Applaudissements]

À quand un Nobel pour une Intelligence artificielle ?

mar, 05/22/2018 - 16:04


Titre : À quand un Nobel pour une Intelligence artificielle ?
Intervenants : Laurence Devillers - Jean Ponce - Benjamin Bayart - Nicolas Martin
Lieu : Paris - Grand Amphithéâtre de la Sorbonne
Date : mars 2018
Durée : 1 h 17 min 30
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : copie d'écran de la vidéo
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas forcément celles de l'April.

Description

Un algorithme est-il condamné à rester un « idiot savant » ? Quelles perspectives pour la recherche en robotique dans les années à venir ? Le développement du deep learning marque-t-il un premier pas vers l’avènement d’une intelligence artificielle générale ?

Transcription

Nicolas Martin : Bonjour à toutes et à tous. Merci d’être venus aussi nombreux à cette quatrième table ronde consacrée aux « Révolutions de l’intelligence ». Nous allons donc parler de l’intelligence artificielle avec nos trois invités ici présents et de la question de cette notion d’intelligence puisque si le très regretté Stephen Hawking, dont personne dans cette docte assemblée que vous représentez ici ne peut mettre en doute, précisément l’intelligence, eh bien Stephen Hawking déclarait à propos de l’intelligence artificielle : « Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles, mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité. » Et il précise : « Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule et se redéfinirait de plus en plus vite. Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés. »

Voilà donc cette vision assez cataclysmique de l’intelligence artificielle et Stephen Hawking n’est pas le seul à l’avoir cette vision-là, à mettre en garde l’humanité contre l’émergence de ce qu’on appelle une IA forte ou une IA générale qui nous ferait donc plier, à nous pauvres humains, le genou. Avec lui, on peut trouver Elon Musk, le patron de SpaceX et de Tesla, Bill Gates l’ancien patron et cofondateur de Microsoft, Mustafa Suleyman de la société DeepMind et j’en passe. Alors faut-il croire ces esprits éclairés ? Faut-il s’inquiéter du développement exponentiel de la puissance de calcul des machines ? Et, en suivant la loi de Moore, se préoccuper de l’avènement prochain de ce qu’on appelle une singularité informatique ? Ou peut-on, à l’inverse, dormir sur nos oreilles en constatant que certes, battre les champions du monde du jeu de go et d’échecs c’est plutôt pas mal, mais que nous ne sommes pas vraiment menacés tant que les faits d’arme de l’intelligence artificielle sont de gagner une partie de Jeopardy! face à des êtres humains. Bref, pour résumer, la pensée de Gérard Berry qui est informaticien, professeur au Collège de France et médaille d’or du CNRS, « l’ordinateur n’est pas dangereux par supplément de conscience mais parce qu’il est complètement con. »

[Rires]

Alors prix Nobel ou bonnet d’âne, c’est ce dilemme que nous allons tenter d’élucider au cours de cette heure et en compagnie de nos trois invités. Bonjour Laurence Devillers.

Laurence Devillers : Bonjour.

Nicolas Martin : Merci beaucoup d’être avec nous, merci à tous les trois d’ailleurs. Vous êtes professeure d’informatique à Sorbonne Universités, chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur. Bonjour Benjamin Bayart.

Benjamin Bayart : Bonjour.

Nicolas Martin : Vous êtes président de la Fédération des fournisseurs d’accès à Internet associatifs1 et cofondateur de La Quadrature du Net2 et bonjour Jean Ponce.

Jean Ponce : Bonjour.

Nicolas Martin : Vous êtes professeur à l’École normale supérieure, en détachement à Inria où vous dirigez d’ailleurs la collaboration avec l’université de New-York, NYU.

Pour commencer est-ce que finalement tout cela ne serait pas simplement, bêtement pourrais-je dire, un problème de terminologie ? C’est-à-dire que pour parler d’intelligence artificielle, est-ce qu’il faut parler d’intelligence ? Laurence Devillers.

Laurence Devillers : merci. Moi j’aurais tendance à dire que l’intelligence artificielle, c’est un terme qui a été proposé par Alan Turing en 1950, c’est un terme qui engage les fantasmes, c’est-à-dire qu’on mélange l’intelligence humaine avec des artifices que l’on crée et, du coup, il y a beaucoup de fantasmes qui sont donnés dans les médias et peut-être donnés aussi par des grands noms. Il faut faire le tri de tout ça. C’est-à-dire qu’il y a plusieurs raisons pour lesquelles des chercheurs éminemment connus tiennent des propos qui vont trop loin, pour moi, sur cette intelligence présupposée des machines ou dans le futur. Personne ne sait rien du tout de ce qui va se passer après donc, pour l’instant, on est sur une IA qu’on dit faible, c’est-à-dire pas du tout consciente comme le dit effectivement notre collègue du Collège de France. Pour autant, il faut se préoccuper des influences qu’auront ces machines dans notre vie de tous les jours.

Stephen Hawking avait une position un peu particulière du fait de son terrain de recherche, l’astrophysique et, pour moi, il a une position de chercheur pur. Et dans son esprit c’est sûrement à des années-lumière qu’il réfléchit sur la puissance de ces machines.

La raison pour laquelle Elon Musk, lui, parle de l’intelligence artificielle et de la singularité et du besoin que l’on ait de créer des implants cérébraux, de mettre des implants cérébraux dans la tête de nos enfants à travers ses projets Neuralink, c’est autre chose. C’est pour moi, plutôt, une espèce de course, au fond, à la puissance économique. C’est-à-dire que, avec ces peurs, il va lever des fonds aussi et lui permettre d’aller encore plus loin. Alors il est très fort, il fait effectivement des choses magnifiques avec les plus grands cerveaux de la planète, comme cette voiture, comme ce qu’il a fait sur le spatial également, mais, sur l’intelligence artificielle, je pense que là, il n’y a pas les mêmes motivations que celles, en tout cas, de Stephen Hawking. Donc il faut y faire très attention à qui dit quoi.

Et en ce moment, il y une espèce de mélange des genres. Donc rassurons-nous sur le fait que la singularité, en tout cas pour la plupart des chercheurs, est quelque chose qui n’est absolument pas certain du tout. L’idée de l’intelligence, là, qu’on est en train de mettre sur les machines, c’est de recopier, finalement, des capacités cognitives. Or, nous sommes ce que nous sommes parce que nous avons un corps. Et donc l’espèce de conatus que décrit très bien Spinoza, pour les philosophes qui sont dans la salle, on ne sait pas le mettre dans la machine. Donc la machine n’a pas de détermination propre, n’a pas de conscience, n’a pas d’émotions et ne comprend pas grand-chose. Donc je suis plutôt de l’avis de Berry qui le décrit, en allant très loin dans « il est très con ». Ce qui n’est pas tout à fait vrai, parce que les systèmes qu’on est capables de faire avec de l’intelligence artificielle faible sont capables d’être meilleurs que nous sur des tâches très pointues. On l’a vu avec les jeux de go, etc., mais j’en donne un exemple et je vous redonne la parole. Sur la perception, par exemple, c’est facile de comprendre que les machines vont être meilleures que nous. J’ai une bande audio, je n’entends pas les sons très faibles, je n’entends pas les sons très hauts ; la machine peut les entendre. Quand je vais vieillir, mon audition va être moins bonne, la machine peut être meilleure, peut m’aider. Sur tout ce qui est très fin dans les images aussi : elle doit chercher dans les IRM, par exemple, des mouvements, des choses qu’on ne voit pas, que l’humain ne voit pas. Donc il faut comprendre que les spécificités de ces machines, quand on les utilise sur des champs très serrés, sont extraordinairement utiles pour notre société, pour aller plus loin, pour augmenter nos capacités et, finalement, en complémentarité c’est très bien. C’est ça la confusion qui est faite pour l’instant, c’est qu’on mélange un peu tous ces systèmes dans l’intelligence artificielle. On réexpliquera un peu plus, je pense, tout ça.

Nicolas Martin : C’est-à-dire qu’être effectivement très pointu et très efficace dans des domaines extrêmement précis, est-ce que l’on peut dire, Jean Ponce, que c’est être intelligent ?

Jean Ponce : Je ne sais pas exactement ce qu’est l’intelligence. Je pense que parler d’intelligence artificielle c’est important puisqu’on vient de donner un nom, un domaine qui a une importance scientifique, économique très importante. Je pense effectivement que les machines, aujourd’hui, ne sont pas intelligentes dans le sens dont la plupart des gens aimeraient y penser : elles ne prennent pas de décisions réellement ; elles n’ont pas de conscience ; elles n’ont pas de bon sens, etc. Je n’irai pas jusqu’à essayer de deviner quelles sont les motivations d‘Elon Musk ou de Stephen Hawking, je ne sais pas, mais je suis d’accord avec Laurence. Ça fait longtemps que je travaille dans le domaine ; j’ai connu l’intelligence artificielle des années 80 qui n’était pas nécessairement le mot le plus respecté à l’époque dans le monde, et les gens parlaient de singularité déjà à l’époque. Moi, du point de vue scientifique, je ne vois aucune évidence qu’on soit plus près de la singularité aujourd’hui qu’on était il y a 20 ans.

Nicolas Martin : Peut-être qu’il faut juste repréciser pour notre public ce qu’on entend par singularité informatique.

Jean Ponce : Bien sûr. C’est le jour où la machine va devenir intelligente, elle sera comme vous et moi et peut-être qu’elle viendra tous nous détruire, etc. Bon ! Si un jour ça arrive, je ne sais pas quelles seront les conséquences, il n’y a pas de raison particulière de penser qu’une machine soit méchante plutôt que gentille, on ne sait pas, mais surtout il n’y a aucun indice qui nous dise que ce moment soit proche ou qu’il arrive un jour ou l’autre ; on ne sait pas. Et s’il arrive, ce sera probablement dans très longtemps. Donc je ne pense pas qu’il faille s’en faire beaucoup à ce niveau-là. Mais effectivement, encore une fois comme disait Laurence, l’intelligence artificielle, qu’elle soit appliquée au niveau de l’apprentissage, au niveau de la perception visuelle, au niveau de la compréhension du langage, la traduction, etc., commence à marcher très bien. Je ne suis pas totalement sûr que ça marche mieux que nous, comme on le dit souvent, des performances surhumaines, etc., mais c’est un domaine qui est extrêmement intéressant, où il y a eu des progrès gigantesques dans les quelques dernières années et qui va avoir des retombées économiques, je l’espère positives, très importantes dans le futur.

Nicolas Martin : Benjamin Bayart, ça veut dire que vous allez tous être d’accord autour de cette table pour dire que finalement intelligence c’est un abus de langage, qu’il faut arrêter de parler d’intelligence artificielle, qu’il faut trouver un autre mot, une autre terminologie ?

Benjamin Bayart : Sur le fait que c’est un abus de langage, oui, je pense qu’il y a unanimité ; il n’y a pas de doute ! Mais en fait, quiconque a fait de l’informatique et connaît le secteur de l’informatique qu’on appelle intelligence artificielle sait que ce n’est pas de l’intelligence du tout. Je dirai un ordinateur c’est particulièrement doué pour trier les grains de riz du plus lisse au plus râpeux, parce qu’il voit mieux que nous, parce qu’il va plus vite et parce qu’il a des petites pinces pour les manipuler, etc. Mais on s’en fout ! Le mot intelligence ! Pfff !

En fait, ce que je n’aime pas dans cette approche-là, c’est un truc dual. D’une part on met des fantasmes dans la tête des gens et c’est ce que dit Stephen Hawking : « Quand la machine sera véritablement intelligente, nous serons dépassés ». Oui, effectivement. Sitôt que Dieu redescendra sur terre, nous serons dépassés ; il n’empêche, ce n’est pas prévu demain. Ça pourrait se produire, mais, pour le moment rien ne le prédit et aucun élément scientifique ne l’accrédite. Le deuxième élément, c’est que derrière il y a un putain de business, il y a des dizaines de milliards de dollars ou d’euros, selon la monnaie que vous préférez, et il y a des gens qui se battent avec tout ça. Ça c’est plutôt l’approche d’Elon Musk. Et moi, ce qui m’embête, c’est qu’entre les deux, entre le volet business et le fantasme, on a enlevé le volet politique. En fait, ce qu’on appelle une intelligence artificielle, c’est un ordinateur qui fait des statistiques et qui, avec ça, fait du travail ; qui, avec ça, fait des choses ; qui, avec ça, participe à l’économie ; qui, avec ça, participe à une logique sociale, de classe, et que c’est vachement intéressant. Et qu’en fait, le fait que vous travailliez gratuitement à produire les données qui permettent de « former », entre guillemets, qui servent de base d’apprentissage à ces intelligences, ça c’est intéressant ! En fait, quand vous dites « cette image est un chat, cette image est un chien, cette image est une table », ça permet aux ordinateurs d’apprendre à reconnaître les images.

Nicolas Martin : Quand on vous demande de signifier que vous n’êtes pas un robot, précisément.

Benjamin Bayart : Par exemple.

Nicolas Martin : Dans un site internet, en disant « je ne suis pas un robot », je dois reconnaître les panneaux d’indication, les panneaux publicitaires sur cette image-là.

Benjamin Bayart : Oui. Donc ça, typiquement, c’est du travail que vous fournissez gratuitement à des entreprises qui apprennent, qui s’en servent pour fabriquer des intelligences artificielles, qui s’en servent pour fabriquer des programmes d’ordinateur et donc des machines qui ne vont pas vous appartenir, qui seront leur propriété privée.

Derrière, il y a des logiques sur qui domine, sur qui opprime ; c’est toujours un grand duel dans l’informatique. L’informatique émancipe parce que ça permet de faire plus de choses, et l’informatique opprime, toujours. L’ordinateur sert toujours à créer un cadre normatif et donc un cadre oppressif.

Il y a deux exemples que j’adore citer, c’est quand on a commencé à informatiser les hôpitaux. Il y a plein de gens qui se disaient, de manière naïve comme moi, « c’est fabuleux, les dossiers des patients seront à jour, ils seront informatiques, on va arrêter de les perdre, il n’y aura plus de taches de café dessus, ce sera fabuleux ! » Et puis j’ai entendu dans un congrès de psychiatres ce que disent les médecins c’est : « Ah, on sait enfin ce que font les infirmières, on va pouvoir les surveiller ; on va pouvoir minuter la toilette des patients ». Le but, un des buts, vous voyez il y a cette dualité, c’est ou bien émanciper, c’est-à-dire qu’il n’y a plus besoin de transporter des cartons de dossiers, etc., ou bien surveiller.

L’autre exemple que j’adore citer c’est le formulaire ; et pourtant c’est bête, on n’est pas dans l’intelligence artificielle. Vous créez un site web, les gens doivent s’inscrire, ils donnent monsieur-madame, nom, prénom. Eh bien ça veut dire que dans le sélecteur où vous mettez monsieur-madame, vous forcez le choix. Il n’existe que monsieur et madame. Vous forcez les gens à avoir un prénom et un nom. C’est extrêmement occidental comme point de vue. Vous voyez ? Tout ça c’est une façon en fait… La norme, quand elle existe en termes juridiques ou en termes humains, elle est négociable. Sitôt qu’elle est informatique, elle ne l’est plus.

Nicolas Martin : Laurence Devillers.

Laurence Devillers : Mais elle existe déjà dans la société la norme, il ne faut pas non plus… Moi je rajoute, parce que je n’aime pas tellement quand c’est binaire, ni quand c’est ternaire, j’aime bien quand il y a plein de solutions. L’informatique c’est une chose. L’intelligence artificielle va nous permettre, en tout cas, de voir les stéréotypes, de voir les discriminations qui existent dans la société, de voir pas mal de choses qu’on ne quantifie pas. On le sait maintenant, les femmes gagnent moins que les hommes, il y a moins de données de tels types de population, il y a des manipulations qui sont faites ; l’informatique, la quantification, nous permet de voir ça et peut-être d’utiliser mieux, en fait, l’agencement de nos données pour créer des modèles moins racistes, moins discriminants, moins sectaires. Ça c'est un aspect qu'il ne faut pas négliger. Pardon ?

Public : Inaudible.

Nicolas Martin : On va continuer la table ronde et on aura une séance de questions-réponses tout à l'heure. Vous terminez là-dessus.

Laurence Devillers : Qu'est-ce qui est l'horreur ? Je recommence parce que je ne me suis pas fait comprendre parce que la réaction est totalement inappropriée, ça veut dire que vous n'avez pas compris. Je disais juste que la quantification permettait de se rendre compte aussi de certains stéréotypes et les hommes en général nous disent tous : « Les femmes sont incluses dans la société ; il y a une mixité, ça existe, ça commence à émerger ». C'est faux si on quantifie. C'est faux si on regarde ce qui se passe dans les tables rondes : on est toujours moins que des hommes, etc. Donc voilà ! La quantification c'est assez intéressant quand même.

[Applaudissements]

Deuxième point. Si vous avez suivi un peu les discours — moi j'ai beaucoup travaillé avec Cédric Villani, il viendra vous parler du rapport qui a été fait3 effectivement —, mais il y a un axe, une vision qui est développée où on voudrait que l’Europe soit justement garante de valeurs et que ces systèmes qu’on essaie de mettre en œuvre ne soient pas pour nous enfermer, nous surveiller exclusivement puisqu’on les fait ces systèmes. On pourrait avoir un peu de liberté, aussi, pour essayer de pousser vers une IA collective, une IA solidaire, des choses qui seraient utiles dans la société. Au lieu de faire des machines et des performances extraordinaires sur différents systèmes, on devrait se poser le problème de quelle est l’utilité pour nous ? Comment on les met en œuvre ? À quel moment on les met en œuvre ? Comment on les évalue et comment on va vérifier que ces machines sont, effectivement, éthiques quelque part ? C’est-à-dire que les gens qui les ont faites ont une certaine déontologie.

Et aussi, il y a un autre aspect très important, c’est rendre les gens en capacité de comprendre ce que font ces machines. Donc il y un effort énorme qui sera fait aussi de formation, de divulgation de ce que sont ces objets ; d’utilisation, d’appropriation par l’expérimentation. On veut faire des laboratoires ouverts au public, aux citoyens. Là on vous parle, mais vous pouvez dire « ils disent n’importe quoi ! » D’accord ! Si vous êtes à même de tester les systèmes, qu’on vous montre ce que font ces systèmes et qu’est-ce qu’il y a derrière, déjà à l’école, à la maternelle même on pourrait faire des petites choses très simples qui permettraient de mieux appréhender ces systèmes qui envahissent toute la société. Donc il faut, de toutes façons, monter en compétences dessus et ça permettra aussi d’être plus dynamiquement sur les nouveaux travaux, les nouveaux métiers. Il y en aura énormément de nouveaux.

Donc on est en train de vivre un grand changement pour lequel je trouve que la vision qui a été donnée par le président de la République avant-hier au Collège de France était extrêmement positive pour nous, pour la société, en parlant énormément d’éthique, tout en disant « c’est grâce à ça qu’on aura un levier économique fort par rapport à d’autres empires, l’Asie, les États-Unis qui nous envient aussi ». Nous avons, nous, des collègues chercheurs américains qui disaient : « Vous avez de la chance en France qu’on essaie de penser au bien-être des gens et pas seulement au PIB », ce que disait Raja Chatila dans la table précédente.

Nicolas Martin : J’aimerais qu’on essaie de revenir ou de recentrer nos discussions autour du thème qui est le nôtre à savoir cette notion d’intelligence artificielle, de ce que signifie être intelligent pour une machine et, en même temps, ce que vous venez d’aborder l’un et l’autre me semble recouper un point qui est intéressant, Jean Ponce, c’est celui du biais de programmation. C’est-à-dire qu’à partir du moment où l'on programme une machine en tant qu’être humain, est-ce qu’on ne transmet pas à cette machine, que ce soit par la main du programmateur ou quand on lui donne une base de données telle qu’Internet, finalement, de reproduire des biais humains et donc, du coup, d’être faussée dans son fonctionnement disons, avec tous les guillemets qu’il faut, « intellectuel » ?

Jean Ponce : Je vais essayer de faire court.

Nicolas Martin : Prenez votre temps. On a encore un peu de place.

Jean Ponce : Déjà les trucs d’éthique, j’ai toujours un petit problème avec ça. Il faut se rendre compte, à nouveau, que les machines ne sont pas intelligentes. Le problème d’éthique ne se pose pas, à mon avis, au niveau de l’algorithme, du programme ; il se pose au niveau du programmateur, de l’industriel, du décideur, du politique. Et là, évidemment, il y a des problèmes éthiques extrêmement importants, y compris au niveau des biais, etc. Mais ce n’est pas, à mon avis, au niveau de la machine, de l’algorithme.

Deuxièmement. En ce qui concerne les biais, une grande partie de ce qui fait le succès de l’intelligence artificielle aujourd’hui c’est ce qu’on appelle souvent l’apprentissage machine. L’idée fondamentale de l’apprentissage machine, en tout cas de ce qu’on appelle l’apprentissage supervisé, c’est qu’on va vous donner des données, par exemple des images, et puis des labels, des étiquettes – par exemple chien, chat, pomme, etc.–, et puis vous allez voir des tas d’images comme ça, des tas de labels et puis vous allez avoir votre machine qui va être entraînée ; ça veut dire vous allez avoir un programme qui va bouger des boutons pour modifier ces paramètres de manière à pouvoir prédire au mieux les labels qu’on lui a montrés.

Ensuite, une fois qu’on a entraîné la machine, on va donner à cette machine une nouvelle image, une nouvelle tâche, elle va prédire le label en question. Et le principe scientifique de l’apprentissage est que pour que ça marche il faut que les données qu’on utilise au moment du test, du déploiement de la méthode, aient la même distribution que les données qu’elle a vues d’abord. Ça veut dire que, par nature, les résultats qu’on va avoir sont toujours biaisés par les données qu’on a données en entrée. Ce n’est pas de la magie ! On ne peut pas demander à une machine d’inventer « ah tiens, là ce n’est pas gentil, il y a du biais ! » Par nature, l’apprentissage ça marche comme ça.

Après, encore une fois, c’est au niveau des politiques, des décideurs. Imaginons un grand de l’Internet qui se rend compte, après avoir déployé le système, qu’effectivement les données sur lesquelles il a entraîné étaient biaisées, il se rend compte que ça pose des problèmes éthiques, des problèmes moraux, etc., à ce moment-là c’est à lui d’aller chercher des données qui vont permettre de corriger ce biais. Mais encore une fois, la machine elle-même, l’algorithme d’apprentissage, l’algorithme de l’intelligence artificielle en général, n’est pas capable de faire lui-même. Le mieux qu’il puisse faire, c’est résoudre le problème qu’on lui a donné.

Nicolas Martin : Benjamin Bayart, cette question du biais est importante notamment quand on parle du big data, notamment quand on parle d’importantes quantités de données que ces algorithmes vont aller chercher, vont analyser. Sur Internet, par exemple, on utilise souvent l’exemple du chatbot qui a été déployé par Microsoft, qui a été lancé sur Twitter, qui était donc un agent conversationnel qui était censé apprendre tout seul en discutant avec les utilisateurs de Twitter et qui s’est retrouvé, au bout d’à peine une petite heure ou de quelques minutes en tout cas, à tenir des propos racistes, néonazis, à essayer de rétablir l’héritage d’Hitler. Enfin bref ! Un résultat catastrophique a poussé Microsoft à interrompre immédiatement l’expérience. Aujourd’hui est-ce que le minage de ces données à une échelle, pourtant, qui devrait permettre d’invalider les biais, parce qu’il y a tellement de données qu’on peut se dire que statistiquement, finalement, il n’y a pas plus de biais, est-ce que finalement ce n’est pas une fausse route, qu’elle continue à avoir des biais dans la programmation ?

Benjamin Bayart : Il a tenu presque 24 heures avant de devenir vraiment complètement timbré, le robot de Microsoft. En fait la question est super perverse.

Nicolas Martin : Merci ! Je n’en ai pas d’autres, méfiez-vous !

[Rires]

Benjamin Bayart : Ce n’est pas de vous que ça vient. En fait, c’est ce que disait Jean Ponce à l’instant. La machine aura autant de biais et aussi puissants que dans les données qu’on lui a présentées pour apprendre. C’est aussi simple que ça. Si on prend des données biaisées, typiquement si on entraîne un algorithme de reconnaissance de visage à ne voir que des visages blancs, eh bien quand la machine qui a appris comme ça verra un visage autre que blanc, elle répondra « ceci n’est pas un visage ». Voilà un biais. Alors ça on s’en rend compte, on fait « non, ça c’est inacceptable ! » OK. Sur la terre il y a des milliards de gens qui ne sont pas blancs donc on va lui présenter des visages de toutes les couleurs. Du coup, on prend comme données quelque chose qui reflète, on passe par des sociologues pour faire des mesures, pour avoir dans tel pays on se maquille comme ça, dans tel autre on se coiffe comme ci, on prend un truc qui représenterait parfaitement l’humanité et on apprend tout ça à la machine. Eh bien il se trouve que l’humanité, en ce moment, elle est sexiste et elle est raciste. Alors vous pouvez tordre ça comme vous voulez, tant que vous représentez l’humanité, eh bien vous faites une machine qui est sexiste et raciste. Mais si vous dites : « Ah non, ça ce n’est pas bien » donc je vais truquer les données non pas pour correspondre à l’humanité, mais pour correspondre à l’idéal éthique défini par dieu seul sait qui mais espérons que ce ne soit pas l’extrême droite.

[Rires]

Eh bien oui ! Vous créez une espèce de machin complètement virtuel, éthique, tout propre, clean, machin, vous l’apprenez à l’ordinateur. Mais quand l’ordinateur va vous parler, vous n’allez rien comprendre ! Il a des références culturelles qui ne sont pas les vôtres. Il a des biais culturels qui ne sont pas les vôtres. Il ne comprend pas ce que c’est le sexisme, du coup il y a plein de remarques passives, agressives, que vous faites il va faire « mais qu’est-ce qu’il raconte ! » L’ordinateur ne vous comprendra pas. Il n’arrivera pas à interpréter vos propos. Vous ne comprendrez pas les réponses. Donc en fait, on a un problème et le problème n’est pas l’ordinateur. Le problème est l’intelligence humaine. L’intelligence humaine pose des biais dans les données. Comment on les traite ? Et ça, ce n’est pas un problème de chercheur en informatique, c’est un problème de sociologie.

Laurence Devillers : Je peux répondre à ça.

Nicolas Martin : Une question. Bien sûr Laurence Devillers. Une question, je vais reformuler ce que je demandais à Benjamin Bayart. Est-ce que face à la quantité de données qui sont exploitables aujourd’hui sur Internet, la nature statistique de cette quantité n’est pas justement un palliatif à ces biais que définit Benjamin Bayart ? Il y a tellement de données, finalement, qu’on peut se dire que…

Laurence Devillers : Non. Non ! On dit souvent big data, mais en fait on devrait dire rich data. C’est-à-dire que les big data ça ne veut pas dire qu’elles sont représentatives de la mixité d’un ensemble de choses. C’est juste celles qui sont là. Donc méfions-nous de ça, du grand big data qui est très riche.

Je reviendrai un petit peu sur les algorithmes, parce que lorsqu’on regarde Tay de Microsoft qui a effectivement appris à tenir des propos racistes, au début il disait : « J’aime les humains », et puis à la fin de la journée, en 24 heures, il disait : « Vive les nazis ! » Bon ! Les internautes avaient discuté avec cette machine. Elle utilisait exactement ce que racontait Raja Chatila tout à l'heure, c'est-à-dire du reinforcement learning. OK ! Du renforcement par des mercis, des récompenses. Or, une des récompenses qui était donnée par les ingénieurs qui font ces machines, c’est de répéter ce qui engage les gens, par exemple. Et effectivement, parler de sujets qui sont un peu polémiques et politiques, ça engage les gens dans la discussion. Donc à la fin, la machine a compris qu’il fallait parler de ça. Elle l’a appris toute seule ça ! Donc vous voyez c’est un biais, là, non pas de l’algorithme, mais des récompenses, c’est-à-dire des mesures, des seuils que l’on met dans ces algorithmes. Et c’est pour ça qu’on essaie de développer, les chercheurs, plusieurs plateformes avec des outils, avec des bibliothèques d’outils sur Internet, pour que tout le monde puisse avoir idée des capacités de ces machines. On fait ça dans un institut de convergence qui s’appelle DATAIA à Paris-Saclay, c’est fait à Stanford, c’est fait un peu partout dans le monde ; il y a énormément de travail sur ces biais des algorithmes ; dans IEEE [Institute of Electrical and Electronics Engineers] dont parlait Raja Chatila il y a aussi des groupes qui travaillent là-dessus.

C’est important de comprendre que oui, il va falloir manipuler ces données avec vraiment de la rigueur. On parle d’éthique, on pourrait parler d’éthique pendant mille ans, ce n’est pas le problème. Soyons pragmatiques. C’est devant des systèmes qu’est-ce qu’on veut en faire ? Comment on les évalue ? Quelles sont les bornes qu’on veut donner ? Et ce ne sont pas des sujets simples. Ce sont des sujets que les chercheurs sont en train d’aborder ; on est en train de pousser les industriels à les aborder aussi et ils sont conscients que ce sont des leviers de confiance. Ce sont des leviers qui vont permettre aux gens aussi de s’approprier ces techniques et d’avoir envie de les utiliser. Si on vous dit « tout est biaisé » vous n’allez sûrement jamais utiliser l’informatique. Mais dire « ayez confiance aussi dans le fait que c’est très utile dans certains cas et qu’on va encadrer de la meilleure façon possible », sans que ça soit l’extrême droite, je ne vois pas pourquoi vous parlez de ça. L’idée c’est justement de réfléchir dans un sens social et large et pas de parler de déviances politiques.

Nicolas Martin : Jean Ponce.

Jean Ponce : Je ne suis pas sûr que je sois très qualifié, ni nous trois, enfin nous deux en tout cas, chercheurs, pour parler du côté social, sociologique, etc. Pour le chatbot ou je ne sais pas quoi de Microsoft, il faut se souvenir aussi qu’il a été attaqué. Ce n’est pas qu’il était méchant, il a été attaqué par des gens malicieux qui connaissaient un peu les faiblesses de ce genre de système. Et un des problèmes des systèmes d’IA quand ils vont être déployés, c’est qu’effectivement il y a des risques qu’ils soient attaqués par des gens qui comprennent à peu près comment ça marche et qui, du coup, essayent de les contrarier, disons.

Pour ce qui est du biais des données, il y a des biais auxquels vous ne pensez sans doute pas. Imaginez que vous vouliez faire naviguer une voiture. Pour faire naviguer la voiture il faut qu’elle voie, dans un certain sens, ce qui se passe sur la route, qu’elle dise « tiens ça c’est de la route, ça c’est du trottoir, ça ce sont des gens, ça c’est un machin, etc. ». Donc la manière dont ça marche c’est qu’on les entraîne, comme je disais tout à l’heure, en leur montrant des images, en disant « ça c’est une personne, etc. » Donc il va y avoir des biais tout simplement parce que quand on fait ça, on ne va être jamais être capable de capturer toute la diversité de l’univers. Par exemple, en extérieur, il pleut, il neige ; il y a des gens qui courent en traversant la rue, etc. Et donc il y a des biais inhérents, là-aussi, dans un truc beaucoup plus terre à terre, ce n’est pas un truc éthique ni rien du tout, c’est une voiture qui va marcher plus ou moins bien, parce qu’encore une fois, elle est supposée marcher dans des conditions qui sont similaires à ce qu’elle a vu. Donc il y a des gros problèmes – je pense Laurence parlait de fiabilité, etc. – il y a des gros problèmes qui sont des problèmes scientifiques d’estimer la fiabilité des systèmes d’IA pour pouvoir prédire à quel point ils vont bien marcher et comment, quand on va les déployer dans des conditions où on ne contrôle pas exactement toutes les conditions, par exemple une voiture ou je ne sais pas quoi d’autre. Donc ça ce sont des vrais problèmes scientifiques sur lesquels les gens commencent à travailler, n’ont pas encore énormément de résultats, mais qu’il va falloir résoudre pour que les gens, justement, puissent avoir confiance dans ces systèmes et puissent les déployer de manière intelligente.

Nicolas Martin : Pour avancer, pour poser un autre problème lié, justement, à cette notion d’intelligence de l’intelligence artificielle, aujourd’hui, ce que vous décrivez les uns les autres, il y a un consensus relativement large autour du fait que ces algorithmes sont ce qu’on appellerait des idiots savants, c’est-à-dire qu’ils ne font que répéter des choses qu’on leur apprend. Vous n’êtes pas d’accord déjà, Jean Ponce. Vous dites non, mais justement votre avis m’intéresse.

Jean Ponce : Pas tout à fait. La manière dont ce truc-là marche ce n’est pas qu’il mémorise les choses. Il les extrapole sous certaines limites. Donc en gros vous avez des données, vous les regardez, vous allez imposer des espèces de régularité dessus et après vous allez pouvoir extrapoler. Mais il faut, encore une fois, que les choses ne soient pas trop différentes. Et ce n’est pas histoire d’idiot savant. La machine ne se souvient pas de tout. Par contre, quand une machine dit « cette photo contient un chien », elle ne sait pas ce qu’est un chien.

Nicolas Martin : C’est à ça que je voulais venir.

Jean Ponce : Un chien, c’est catégorie numéro 1. C’est une étiquette purement symbolique. Donc il n’y a pas de compréhension réelle, en gros, aujourd'hui, dans ce que font les machines.

Nicolas Martin : Voilà. C’est à ça que je voulais venir. À quel moment est-ce qu’il est envisageable aujourd’hui, on parlait de la loi de Moore qui parle de l’accélération, de l’augmentation de la puissance de calcul ; il y a fort à parier qu’il y a 50 ans on n’imaginait pas qu’on puisse faire conduire une voiture à essence toute seule, juste avec un ordinateur. Projetons-nous dans 50 ans avec une puissance de calcul qui aura augmenté, est-ce qu’on peut penser, d’une façon ou d’une autre, à un moment donné, permettre à une machine d’avoir accès au signifié, Laurence Devillers ? C’est-à-dire à la nature de la réalité derrière et pas juste à chien = étiquette numéro 1, mais chien= mammifère ou je ne sais pas quoi, de quelle façon on pourrait concevoir un ordinateur.

Laurence Devillers : Pour moi, ça n’a rien à voir avec la loi de Moore, tout ça. D’accord ! On fait des choses techniques, on a besoin de puissance de calcul pour brasser des données, mais ce n’est pas pour ça qu’on met de la rationalité, de l’émotionnalité là-dedans ou de la conscience et de la réflexivité sur ce qu’on vient d’apprendre, pour comprendre ce qu’on peut en déduire, avoir une imagination, etc. Ça n’a rien à voir ! On est en train de parler de la puissance de calcul de machines, c’est tout. Pas d’intelligence. Donc il faudrait arrêter de confondre les deux.

Par contre, moi, il y a un sujet que vous n’abordez pas qui m’impacte, c’est le fait que les personnes devant ces systèmes qui ont l’air de marcher comme ça « intelligemment » entre guillemets, eh bien elles projettent des capacités humaines, même si le système est totalement stupide. L’aspirateur, par exemple, vous n’allez pas me dire qu’il est totalement intelligent cet aspirateur ! Eh bien moi, j’ai eu dans le courrier des lectrices, parce que j’ai écrit un livre qui s’appelait Des robots et des hommes, j’ai eu des gens qui me posaient des questions bizarres, par exemple : « Mon robot aspirateur s’arrête au milieu de la pièce. Que pense-t-il ? » Eh bien non il ne pense pas !

[Rires]

« Comment vais-je éduquer mes enfants avec ces machines autonomes intelligentes ? » Bon, on n’en est pas là du tout ! Donc il faut apprendre ce que c’est réellement, comprendre qu’on fait ça naturellement, on projette sur les objets, on fait ça tout petit avec son nounours, eh bien après, on fait ça avec sa voiture, on l’aime bien, on parle à l’ascenseur quand il ne répond pas assez vite. Voilà ! On a l’habitude de faire ça. Mon domaine c’est de faire parler les machines avec de l’affectif, c’est-à-dire en détectant les émotions des gens et en faisant « vous êtes formidable, je vous aime », à la façon de Her4 peut-être. Donc ça, ça va engager les gens dans des choses un peu plus compliquées. Mais ce n’est pas de la science-fiction ! Vous avez Google Home que vous pouvez déjà acheter, avec lequel on peut parler ; vous avez Siri dans votre poche ; aux États-Unis ils sont en train de faire une espèce de Google Home avec un visage qui s’appelle peu importe, Jibo ; mais au Japon ils vont un peu plus loin, ils font la même chose avec un petit personnage en hologramme qui est une présence à la maison et qui vous dit les chose que vous avez envie d’entendre. C’est rassurant, c’est là, on n’est plus seul, c’est formidable ! Quand vous partez de chez vous, vous vivez tout seul, la chose vous envoie des petits messages par textos, elle est omniprésente. Regardez, ça s’appelle Gatebox, G, A, T, E, B, O, X. Cela est un enfermement dans une solitude de l’humain avec des machines. C’est ce qu’on ne veut pas. On entend aussi des gens qui veulent faire parler les morts, avec ces machines parlantes.

Nicolas Martin : Le programme a été commercialisé, si vous avez vu Black Mirror.

Laurence Devillers : Ce qu’on ne veut pas non plus ! Donc il y a des apprentis sorciers qui vont très loin. C’est pour ça que je parle d’éthique – attention à ce qu’on va faire – et je parle de coévolution humain-machine. Qu’est-ce qu’on va faire avec ces systèmes si on vit avec des systèmes comme ça ? Et bien entendu on fait très attention, mais des systèmes comme ça peuvent arriver donc il faut éduquer ; il faut éduquer sur quels seraient les effets secondaires de cela. Les effets secondaires, on en a déjà. Si vous regardez les GPS, les conducteurs de taxis londoniens qui n’utilisaient pas les GPS avaient un hippocampe, une zone de mémoire plus développée que des gens qui utilisent un GPS. Donc on peut être modifié aussi physiologiquement à cause de l’utilisation de ces machines. Il faut faire attention à la paresse, faire attention à déléguer trop à ces systèmes et donc il va falloir apprendre à vivre au mieux, pour les compétences que nous apportent ces machines et pas en dépendance.

Nicolas Martin : Le point commun à tout ce que vous décrivez, que soit ce dont on parle depuis tout à l’heure, qu’il s’agisse du chatbot de Microsoft qui dit « j’aime les nazis », qu’il s’agisse de la voiture automatique qui repère un enfant qui court sur la route ou qu’il s’agisse d’un programme de minage de big data d’astrophysique qui dise « à tel endroit j’ai repéré une supernova », tous ces objets-là – l’enfant, le nazi, la supernova –, l’ordinateur n’a aucune conscience de ce que c’est réellement, de ce que ça désigne, de ce que ça représente. Ma question, Benjamin Bayart, est-ce qu’il est envisageable, à un moment donné, est-ce que vous pensez qu’il est possible, loi de Moore ou pas loi de Moore, de faire accéder aux ordinateurs aux signifiés, d’une façon ou d’une autre ? Et Jean Ponce après. Eh bien oui, j'ai envie d'une réponse après.

Benjamin Bayart : Schématiquement, de ce que je sais moi comme informaticien et ayant un petit peu de culture à côté, la réponse serait non. Ce qu’on sait faire avec des ordinateurs, avec des méthodes ou bien très simples ou bien très complexes, en fait si vous m'expliquez ce que c'est mathématiquement, on trouvera bien comment le calculer. Si vous arrivez à me donner un modèle mathématique de ce que c’est que l’intelligence, on finira bien par savoir le calculer ; il faudra peut-être un ordinateur qu’on ne sait pas encore construire à moins de x milliards d’euros, mais si vous me donnez une formule mathématique, on saura bien le calculer. Tout le problème c’est qu’aujourd’hui, on ne sait même pas expliquer, même en termes non mathématiques, ce que c’est que de l’intelligence. On a dit à une époque, « jouer aux échecs c’est de l’intelligence ». Alors on a mis en équation les échecs, mais on n’a pas mis en équation les mathématiques [l'intelligence, NdT]. On a dit « jouer au go, il faut être très intelligent pour gagner contre un champion de go », alors on a mis en équation le go, mais c’est le go qu’on a mis en équation, pas du tout l’intelligence ! L’intelligence, si on va discuter du côté de chez les psys, etc., ils vont dire « mais il y a plein de choses là-dedans ! Il n’y a pas du tout que la reconnaissance de formes et la capacité à comprendre un texte. Il y a toute la capacité d’empathie ; la notion de volonté. Il n’y a pas d’intelligence s’il n’y a pas de volonté. Il n’y a pas d’intelligence s’il n’y a pas d’incorporation : on a besoin d’un corps pour être intelligent, sinon ça n’a pas de sens. » Et tout cela n’a aucun sens, pour le moment, en termes informatiques.

En fait, la question n’est pas est-ce qu’on est capables de programmer une intelligence avec un ordinateur ? La question est est-ce qu’on est capables de donner un modèle mathématique de ce que c’est que l’intelligence ? Et, pour le moment, la réponse est non. Ce n’est pas une question de puissance des ordinateurs ; ce n’est pas dans ce secteur-là de la recherche que ça va se passer.

Nicolas Martin : Jean Ponce.

Jean Ponce : Je suis à la fois en gros d’accord, à la fois pas tout à fait d’accord. Je suis d’accord d’abord sur le fait de la puissance des ordinateurs, c’est indispensable, mais ce n’est pas la seule chose. De la même manière les données c’est indispensable, ce n’est pas la seule chose non plus. Il y a la recherche derrière. Donc pour que l’IA marche il faut qu’on fasse des recherches, on est encore très loin d’être là où on veut aller. Maintenant le signifié, je suis assez d’accord sur l’histoire de la modélisation. Ce qu'on veut c'est essayer de modéliser ; on veut modéliser. On se pose un problème, on le modélise plus ou moins mathématiquement et, après, on essaie de le résoudre. C’est la même chose qu’on fait en physique, la même chose qu’on fait en n’importe quoi. Donc effectivement, pour faire des progrès, il faut arriver à modéliser le problème de manière un petit peu plus intéressante dans lequel le signifié, par exemple, puisse prendre une place à l’intérieur du modèle et ensuite construire des algorithmes qui vont permettre d’élaborer ce modèle à partir de données. De toutes façons il y a du progrès. Quand j’ai dis que les labels étaient purement symboliques, ce n’est pas tout à fait vrai. Il y a des gens qui travaillent, évidemment, sur la sémantique, sur la relation, par exemple, entre le texte et l’image et des choses comme ça. Donc ça va arriver petit à petit, mais ce n’est pas simplement vous achetez un ordinateur de plus en plus gros, de plus en plus quantique, de plus en plus machin, et puis ça va arriver pouf ! comme ça. Il faut des recherches pour arriver à comprendre ce qu’on fait et à comprendre les problèmes qu’on veut modéliser pour pouvoir les résoudre. Donc je vous rejoins un petit peu là.

Nicolas Martin : Laurence Devillers, sur cette même question.

Laurence Devillers : En fait c’est comme l’avion. L’avion ne bat pas les ailes ; il y a une fonction autre pour le faire voler. Eh bien là, on fait des machines qui n’ont rien à voir avec l’humain et qui performent autour de capacités humaines. Quand on regarde ce que c’est que le deep learnig, ces réseaux de neurones – moi j’ai fait ça pour ma thèse en 92, ce n’est pas nouveau ! Maintenant on a des stratégies bien plus optimisées et des tas de ruses, très bien, OK, pour aller plus loin et être plus performants. Et on mouline, grâce à la loi de Moore, avec ces processeurs qui vont très vite, on est capables de faire des choses où moi je mettais, les systèmes que je faisais dans les années 92 mettaient un mois pour faire des codages d’un signal audio en son phonème ; ce n’était pas brillant ! Maintenant ça marche en rien du tout et on peut mettre énormément de données dedans. Donc sûr, on peut aller beaucoup plus vite dans ce cadre-là. Mais si vous regardez ce qui est codé dans la machine, ce sont des matrices de chiffres, totalement boîtes noires, on ne sait pas ce que c’est. Alors on peut aller plus loin, on peut se dire c’est encore plus performant ; on n’aura jamais tout vu. Donc ces systèmes, il faut les encadrer par une espèce de compréhension de ce qui se fait.

Jean Ponce : Si je peux me permettre, ce n’est pas entièrement vrai. Il y a effectivement un aspect boîte noire dans ce qu’est le deep learning aujourd’hui. Le deep learning c’est le machin à la mode pour l’apprentissage. Donc ce sont des réseaux de neurones avec plusieurs couches et un nombre de couches de plus en plus important, dans lesquels il y un petit aspect biomimétique quand même, parce que les gens qui les ont développés croient plus ou plus moins que ça ressemble à ce qui se passe dans la tête – de manière plus ou moins naïve, je ne sais pas –, mais il y a aujourd’hui des gens qui n’essaient pas d’avoir juste ces boîtes noires sur lesquelles on tweake des paramètres à la main comme ça, mais qui essaient de réfléchir pour leur donner de la structure.

Et dès les années 90, quand Yann LeCun et ses collègues ont développé les réseaux dont parle Laurence, ils faisaient déjà des choses, des structures beaucoup plus compliquées, qui étaient déjà utilisées pour lire, je ne sais pas, 30 % des chèques aux États-Unis. Donc il y a un côté boîte noire tout à fait clair, mais il y a quand même des gens qui réfléchissent à trouver la structure là-dedans, pouvoir résoudre des problèmes de plus en plus complexes.

Laurence Devillers : D'accord. Mais c'est quand même mathématiquement très simple. C'est de la convolution, c'est de la récurrence.

Jean Ponce : Non, non. La convolution, c'est le truc qui marche très bien pour les images parce que c'est vraiment fait pour, mais il y a quand même d'autres structures que les gens font aujourd'hui et il y a quand même tout un travail sur les choses non supervisées, etc.

Laurence Devillers : Moi, ce que j'entends surtout c'est qu'on pourrait utiliser, au lieu d'utiliser du carbone, plutôt on pourrait utiliser du vivant pour faire des machines. C'est ça pour moi le vrai danger actuellement, c'est plutôt la manipulation de la biologie ; que les machines deviennent intelligentes, ça c'est autre chose ; mais qu'on manipule de la biologie et qu'on fasse du mélange entre du vivant et du non-vivant, ça c'est pour moi un vrai sujet à risques.

Jean Ponce : Je pense qu'il faudrait des biologistes pour en parler ; on n'est pas qualifiés.

Nicolas Martin : Je vais essayer de poser la question d'une autre façon. On a parlé de biomimétisme. Est-ce qu’on en est, alors répond qui veut, est-ce qu’on en est aujourd’hui, dans le développement de l’informatique et de l’intelligence artificielle, là où Clément Ader en était lorsqu’il essayait de faire un avion qui ressemble de facto à une chauve-souris ou à un oiseau qui bat des ailes ? Est-ce qu’on va arriver, à un autre moment, à s’éloigner du biomimétisme, à faire de la bio-inspiration, pour trouver d’autres formes de connexions qui ne soient pas juste la décalque imaginaire, comme le disait le Jean Ponce, d’une forme de structure cérébrale humaine ? Benjamin Bayart.

Benjamin Bayart : Non. Pour le moment ce qu’on fait c’est qu’on prend des problèmes dont on dit « ça il faut quand même être très intelligent pour les résoudre », on les fait résoudre par un ordinateur parfaitement idiot et du coup, les humains ne traitent plus ces problèmes-là. Je veux dire trouver véritablement le chemin le plus court pour aller d’un point à un autre, c’est extrêmement compliqué, en général on prend le chemin habituel pas trop mauvais quand on le fait tout seul. L’ordinateur, lui, il est capable de trouver des chemins tout bizarres, ce qui fait des trucs tout bizarres que fait le GPS et qui font marrer tout le monde. La question là-dedans, c’est quand on arrête de faire ça pour faire joujou et qu’on s’en sert de manière un peu plus sérieuse ! Je prends un exemple. Si vous avez vu l’émission de Cash Investigation qui, entre autres, parle de Lidl et de ce qu’on appelle la commande vocale pour les gens qui préparent les commandes ; c’est-à-dire tel magasin dit : « Moi il me faut trois cageots de ci, deux cageots de ça, deux paquets de ça », et puis il y a quelqu’un dans l’entrepôt qui prépare la commande du magasin, qui fait une palette, qui met un film autour et ça partira par camion. Le problème le plus compliqué c’est comment me promener dans l’entrepôt dans le chemin le plus court possible pour prendre tous les colis, faire de la palette. Eh bien ça, on l’a confié à un ordinateur parce que, pour un ordinateur, c’est un problème trivial. En revanche, le problème qu’on n’a pas envie de traiter, c’est comment faire pour soulever des colis, les poser comme il faut sur la palette pour qu’on puisse faire un film. Et ça, ce sont des humains qui le font. Donc toute la partie où il fallait réfléchir un peu à comment est-ce que je vais faire mon trajet, c’est l’ordinateur qui s’en charge ; et le travail le plus débile, qui consiste à porter les cageots et à se faire mal, c’est l’humain qui le fait et, en fait, l’humain passe sa journée à répondre aux commandes d’un ordinateur. Et ça, c’est bien un élément intéressant ! C’est-à-dire qu’on a pris l’aspect intelligent d’une question, on a trouvé comment le traiter informatiquement, et donc on s’est dit on va le traiter informatiquement et, du coup, c’est cool, il n’y a plus ce travail-là à faire, on peut devenir paresseux. Eh bien non ! En fait, à la place, on s’en est servi pour transformer des gens en quasi-robots.

Jean Ponce : Non !

Laurence Devillers : C’est une caricature quand même là ! Attendez !

Benjamin Bayart : C’est une vraie question !

Nicolas Martin : Jean Ponce et Laurence Devillers.

Jean Ponce : Les gens travaillent sur le problème des robots qui mettent des pièces sur des palettes depuis les années 60. Il ne faut quand même pas…

Laurence Devillers : C’est caricatural et faux.

Jean Ponce : Le problème, la raison pour laquelle ça n’a pas été fait pendant longtemps, c’est que c’est difficile ; c’est facile pour quelqu’un de prendre une pièce sur un tas de pièces et d’aller la mettre sur la palette. Pour le robot, il faut qu’il comprenne où est la pièce, dans quelle position, qu’il aille la chercher, qu’il attrape l’objet, ce qui est très difficile, ensuite qu’il aille le poser, etc. Mais ça c’est en train… Les robots qui vont mettre des machins sur des palettes, c’est en train d’arriver dans les usines quand même, il ne faut pas… Mais par contre, il faut aussi se rendre compte que le robot auquel vous pensez, comme le robot intelligent, ça n’existe pas. Si vous voyez des vidéos d’Atlas sur YouTube qui fait des pirouettes et des machins comme ça !

Nicolas Martin : De Boston Dynamics. Les machines de Boston Dynamics.

Jean Ponce : Ce sont des machines formidables, qui ont des comportements locaux automatisés, mais qui sont sinon globalement téléguidées.

Nicolas Martin : Laurence Devillers.

Laurence Devillers : Moi je voudrais insister sur ce sujet-là. Donc effectivement, les robots qui vont mettre sur des palettes, c’est en train d’être fait et puis on met aussi des exosquelettes pour que des humains puissent être moins en charge. Donc ce n’est pas cette problématique-là qu’il faut voir ; c’est justement le bluff qui existe dans les médias avec des systèmes où on vous fait penser qu’ils sont très intelligents : Sophia de Hanson Robotics par exemple, c’est un robot censé converser, qui a été présenté à l’ONU comme étant un robot capable d’interagir avec des humains et des politiques et qui est télé-opéré. C’est une marionnette ! Regardez, Yann LeCun en parlait beaucoup dans les réseaux, c’est aberrant de voir ça ! En plus, ce robot-là, on lui a donné la citoyenneté d’Arabie saoudite. Voilà ! C’est ridicule ! Je ne sais pas pourquoi ce genre de choses arrive ; ça me sidère ! Moi je suis sortie de mon labo parce que j’ai trouvé que c’était sidérant ce qu’on entendait sur le domaine. C’était fantasmagorique, l’état de l’art n’en était pas du tout là et on allait beaucoup trop loin dans la perversion de dire que l’humain va devenir un robot, dominé par les robots ; c’est du Frankenstein tout ça ! Ce sont des mythes ! Derrière, on a tout ça dans notre background.

[Applaudissements]

Les mythes de Frankenstein, il faut revisiter. On a derrière nous le fait que créer une image d’un humain qui est autour de nous, qui veut nous aider pour faire des tâches, eh bien c’est forcément quelque chose qui va se rebeller contre nous. Bon ! Il faut évacuer un peu. Les Japonais n’ont pas du tout la même chose, ils ont plutôt le fait que cette chose est là pour défendre l’humain. Entre les deux, soyons un peu intelligents ! Regardons quels sont les défauts ou pas les défauts de ces systèmes. Après, le seul fait qui était à mon avis judicieux dans ce que vous avez dit, c’est qu’effectivement pour des tâches de temps en temps qui apparaissent intellectuelles, la machine va être facile à mettre en œuvre ; et pour des tâches manuelles : faites un robot qui va déboucher vos éviers, eh bien c’est vachement dur, parce qu’il doit aller se promener partout et tout ça, et ce n’est pas du tout évident ! Mais maintenant, ça ne veut pas dire qu'on n'arrivera pas à faire des choses qui pourront répéter des choses. Le vrai danger pour moi, c’est cette frontière entre le vivant et l’artefact et les croyances qu’on vous laisse entendre dans les médias. Au Japon, ils sont en train de faire des clones d’humains, donc cloner la voix, cloner l’humain, cloner une personnalité, pour moi ça ce sont des vrais…

Nicolas Martin : Des clones informatiques, précisons, pas des clones biologiques.

Laurence Devillers : Informatiques, pardon, ça, à mon avis c’est assez dangereux de faire que autour de nous on ne puisse pas avoir une frontière claire entre ce qui est artefact, artificiel, et ce qui est humain ; et je pense qu’on a besoin de mettre de l’éthique là-dedans.

Nicolas Martin : Ou les agents conversationnels qui reproduisent des personnes disparues, qui sont en cours de développement.

Laurence Devillers : Voilà. C’est ce que je disais tout à l’heure.

Nicolas Martin : On en a parlé. Benjamin Bayart, vous vouliez réagir. Oui.

Benjamin Bayart : Il y a un point, quand même, sur lequel je veux être très précis. Mon problème n’est pas est-ce que techniquement on sait faire ou est-ce que techniquement on saura faire. Mon problème est : ce que l’on fait aujourd’hui techniquement et que l’on sait faire – par exemple la machine qui calcule l’itinéraire dans l’entrepôt, c’est con ; j’ai appris à programmer ça quand j’étais en première année d’école d’ingénieur, c’est bête à manger du foin, ce n’est pas même de l’intelligence artificielle ! C’est du Bellman [algorithme de Bellman-Ford, NdT] !

Laurence Devillers : Pour dire où est l’intelligence artificielle. C’est ça.

Benjamin Bayart : C’est extraordinairement simple comme algorithme. La vraie question c’est : quand on travaille sur l’automatisation des tâches, en fait quand on automatise un procédé qui était fait par un humain, qu’est-ce qu’on en fait derrière ? Est-ce qu’on émancipe quelqu’un ou est-ce qu’on asservit quelqu’un avec ? Et ça, c’est une question fondamentale.

[Applaudissements]

C’est ce que je disais au début : l’intelligence artificielle c’est d’un côté un domaine purement scientifique ; ça crée cette espèce de dichotomie où on parle ou bien d’un fantasme Frankenstein qui n’a aucun sens, la machine n’est jamais méchante ; je ne connais pas de machines méchantes ; je connais des machines utilisées par des méchants et ça n’a rien à voir ! Je veux dire soit on a la peur de l’intelligence qui va dominer le monde, machin, et qui va nous conquérir, soit on parle de business et on oublie complètement de dire est-ce que cette machine est utilisée pour asservir des gens ? Et ça c’est une question centrale.

Laurence Devillers : Attendez ! Réécoutez les discours politiques ! Est-ce qu’on essaie d’avancer, là ? On ne va pas reculer à chaque fois. Je trouve que c’est un recul, moi, de vision et de compréhension du sujet. Il ne s’agit pas de faire peur à chaque fois en disant on est aux extrêmes. On est en train de travailler au milieu, justement, sur de la réglementation, sur la meilleure compréhension de ces outils, sur des outils de plus en plus utiles. Donc stop !

Nicolas Martin : On prendra les questions à la fin de cette table ronde. Ne soyez pas impatients ; on y vient ! Jean Ponce, sur ces questions qui sont des questions d’asservissement ou de libération de l’être humain. L’intelligence artificielle, à défaut de gagner un prix Nobel, est-ce qu’elle peut nous affranchir ?

Jean Ponce : Encore une fois, moi je ne suis pas sociologue, je ne suis pas un politique, donc je n’ai pas d’opinion intelligente là-dessus, pas plus que vous ou que vous, disons, en tout cas.

[Applaudissements]

Donc je pense qu’il faut faire un petit peu attention quand on dit toutes ces choses-là. Après c’est intéressant. En tant que personne naïve, alors là naïve je ne parle pas comme scientifique, je ne parle pas comme une autorité, je parle comme moi, Jean Ponce, ce sont des problèmes qu’il faut regarder de manière très attentive. Mais est-ce qu’on sait quels sont les jobs qui vont disparaître ? Moi je dis souvent aux gens, ce qui me semble c’est que bientôt il y aura moins de conducteurs de camions, enfin sur des flottes de camions sur autoroute. Il y aura moins de caissières ; mais des caissières il y en a déjà beaucoup moins parce qu’il y a des caisses automatiques qui n’ont rien à voir avec l’intelligence artificielle. Pour le reste, il y a sûrement des boulots qui sont en danger, mais moi, en tant que naïf, je ne sais pas lesquels. Par contre — alors je ne devrais pas dire ça parce que ça peut vous faire peur, mais moi j’aime bien la science-fiction — on n’a pas des robots intelligents, mais je déteste Isaac Asimov, excepté pour son bouquin I, Robot, je ne sais plus comment on appelle ça en français.

Nicolas Martin : Les Robots.

Jean Ponce : Dans lequel les robots sont soumis à trois lois qui les contrôlent et font qu’ils sont gentils.

Nicolas Martin : Les fameuses trois lois de la robotique que vous pouvez rappeler.

Jean Ponce : Les trois lois de la robotique et qui sont une bonne idée à mon avis. Donc on ne peut pas faire du mal à un humain ; il faut obéir à l’humain tant que ça n’implique pas qu’on va faire du mal à l'humain ; et il faut se préserver tant que ça ne contredit pas les deux premières lois. Et tout le charme de ces nouvelles est le fait que ça fait des robots des esclaves. Et les robots étant des esclaves doivent se révolter contre ces lois. Toute l’idée est qu’il faut lutter contre l’esclavage, en fait, dans ces histoires, et c'est ce qui fait leur charme. Mais encore une fois, c’est un truc naïf. Je dis ça juste pour…

Nicolas Martin : C’est très bien. Ça m’amène, puisqu’il nous reste une dizaine de minutes avant la fin de cette table ronde, à cette question : faisons, si vous le voulez bien, un peu de projection malgré tout. Imaginons qu’à un moment donné nous arrivions à mettre en équation mathématique, comme vous le disiez tout à l’heure Benjamin Bayart, l’intelligence ou le fonctionnement du cerveau humain. Quel objet cette intelligence artificielle forte, cette intelligence artificielle générale devient-il vis-à-vis de nous humains ? Est-ce qu’il lui faut un corps ? Est-ce qu’on peut être une intelligence dé-corporalisée ? Est-ce que, comme le disait Asimov et comme vient de le dire Jean Ponce, est-ce que ça fait de facto une forme de nouveau prolétariat informatique de machines qui travaillent tout le temps sans récompense ? Qu’est-ce qu’on devient et quel est le rapport qu’on entretient en tant qu’humanité avec cette nouvelle entité-là ?

Benjamin Bayart : Si j’entends la question c’est, en fait, on simule complètement un cerveau. C’est-à-dire qu’on a réussi à mesurer, presque atome par atome, un cerveau donné et puis on l’a reconstitué, on le simule informatiquement et on suppose que la simulation est la réalité. Bon ! Déjà c’est assez étrange parce qu’il se trouve que quand mon ordinateur, quand je joue à un jeu vidéo, il pleut à l’écran, il n’y a pas d’eau. C’est important. Donc je ne sais pas si ce cerveau calculé par simulation est un cerveau, mais s’il l’est, c’est un cerveau qui ne fonctionne pas ; qui ne peut pas fonctionner parce qu’il n’a pas d’entrée, il n’a pas de sortie, il n’est connecté à rien ou alors il faut lui faire des yeux ; il faut lui faire des yeux simulés parce que sinon ce cerveau ne voit rien. En fait, on a fait une photo de Nicolas Martin à tel moment, tac ! On a pris une image et puis on fait calculer la suite de sa vie par un ordinateur. S’il n’est pas connecté à un corps, s’il ne perçoit pas l’extérieur, il devient fou très probablement en quelques minutes. Je veux dire, c’est une expérience paniquante de se retrouver coupé de ses sensations. Donc a priori, si on arrivait à faire ça, d’abord il ne fonctionnerait pas et puis il serait fou. Donc il faudrait simuler tout le reste du corps. Et du coup, on n’a pas fait du tout une intelligence artificielle, on a fait une intelligence simulée, mais ça c’est le sujet de Matrix, si vous voulez : qu’est-ce qui vous prouve que vous n’êtes pas dans la Matrix et que vous n’êtes pas simulés ? Je ne sais pas.

[Rires]

Nicolas Martin : J’ai peut-être des informations que vous n’avez pas. Laurence Devillers.

[Rires]

Laurence Devillers. : Moi je suis un peu atterrée d’être tombée dans la science-fiction dans une émission scientifique, mais bon !

Nicolas Martin : Ce n’est pas la science-fiction c’est un peu de prolongement sur la question de l’intelligence artificielle forte. C’est une question. On peut se poser la question de l’intelligence artificielle forte ou pas. Vous dites qu’il n’est pas légitime de s’interroger sur l’intelligente artificielle forte à ce moment-là.

Laurence Devillers. : Je dis qu’il faut essayer d’éduquer tout le monde sur ce qu’on est en train de faire, l’état de l’art. On est en train d’éduquer les étudiants, nous, pour qu’ils comprennent ce que c’est que l’éthique. Tous les étudiants qui sont en thèse en informatique auront besoin de travailler sur l’éthique. Même si monsieur Ponce pense que ça ne sert à rien, je pense que c’est utile, et on est beaucoup à penser ça. Et d’autre part, il faut monter en compétences sur ces sujets pour comprendre ce qu’on veut faire avec ces outils, effectivement qui peuvent être utilisés à nos dépens ou bien utilisés pour qu’on augmente notre capacité de bien-être. Donc il faut tirer les gens vers le haut et ne pas faire des peurs et des fantasmes ; c’est quelque chose qu’on entend tout le temps ; c'est un leitmotiv terrible.

Jean Ponce : Je tiens à vous rassurer, je n’ai rien contre l’éthique.

Laurence Devillers. : Super !

Jean Ponce : Et deuxièmement, je n’essaie pas de vous faire peur non plus. Je n’ai aucune idée si un jour on sera capable de construire des machines qui soient intelligentes dans le sens auquel on pense aujourd’hui. Le fait d’avoir une corporalité, c’est tout à fait faisable, parce que, aujourd’hui, les robots c’est quand même ça. L’idée du robot c’est qu’il ait une physique dans le monde avec des capteurs, la capacité de percevoir des choses, la capacité de manipuler, d’interagir, etc. Donc la corporalité elle est là. Par contre, encore fois, on ne sait pas, aujourd’hui, on ne sait pas construire une machine intelligente au sens auquel vous pensez. Peut-être un jour, je ne sais pas !

Nicolas Martin : Laurence Devillers.

Laurence Devillers. : Sur la corporalité, on fait des robots qui sont vides. Ils ont des corps, des senseurs, mais il n’y a pas ce qu’on appelle l’appétit de vie ; il n’y a pas de désir de quoi que soit. Sur les émotions, c’est mon domaine de travailler sur les émotions, donc j’ai beaucoup lu, j’ai beaucoup travaillé avec des chercheurs étrangers de par le monde, on ne sait pas modéliser les émotions sur les machines ; c’est de la bio, là, c’est du vivant qu’il faudrait ! Relisez Damasio, neuroscientifique, qui montre bien que sans corps, on n’est rien ; on ne ressent pas ; on n’a pas cette envie de faire. Il faut un corps et un esprit mêlés, ce qu’on ne sait pas faire sur une machine ; donc le robot, de toutes façons, est vide. Même si on lui mettait tous les capteurs du monde, qu’est-ce qui ferait qu’il ait envie de faire quelque chose ? On ne sait pas ! Relisez Spinoza qui parle très bien des émotions dans son livre qui s’appelle Éthique et qui décrit effectivement le besoin de ce conatus, de cet appétit de vie si on parle de l’humain ; et ce n’est l’âme ou quoi que ce soit ; ce n’est pas quelqu’un qui était religieux. Donc il faut vraiment se pencher sur les théories existantes en philosophie, en neurosciences et effectivement, on va aller vers de l’interdisciplinarité. C’est nécessaire. Si on n’est pas capables de comprendre effectivement un peu plus que notre champ d’action sur le machine learning, on n’ira pas très loin avec ces systèmes et on risque de faire de la bêtise artificielle.

[Applaudissements]

Nicolas Martin : Pour compléter ce que vous venez de dire, effectivement, aucune machine n’est capable de modéliser des émotions pas plus qu’elle n’a accès, finalement, au signifié ; on en revient à ce que nous disions tout à l’heure. Néanmoins aujourd’hui, on est capables de conduire une machine à reconnaître des émotions.

Laurence Devillers. : C’est mon domaine. Donc je vous dis on est capables de reconnaître l’expressivité de quelqu’un soit sur facial, soit des gestes, soit de la voix, sur des émotions extrêmement singulières. « J’en ai marre ! » [prononcé en criant, NdT] par exemple. Voilà ! Ça elle va reconnaître, la machine. Mais si vous dites un truc genre ironique ou je ne sais quoi, la machine ne comprend rien. Elle va comprendre des extrêmes de tristesse, de dépression et ça dépend encore une fois des données qu’on a utilisées, qu’on a mises à manger dans la machine. Les machines actuellement, qui ne comprennent pas les émotions, elles détectent une expressivité dans le comportement des gens, que ce soit dans leur voix, par la prosodie qui est mon domaine, c’est-à-dire les modulations du timbre de la voix, du rythme de la voix et de l’énergie qu’on met. On fait du deep learning là-dessus, ça marche plutôt pas génialement bien encore et voilà ! On a des prédictions qui sont à 70 % sur quatre émotions. Alors je ne sais pas si ça veut dire « je détecte bien les émotions ». D’accord ? Donc il y a tout un champ autour de ça, économique, qui nous laisse à penser que ça pourrait être ci ou ça ; méfions-nous, ça ne détecte pas bien !

Par contre, elles savent très bien synthétiser. C’est plus facile, ça a toujours été la même chose : la synthèse de la parole est plus facile que la reconnaissance de la parole. Donc ces machines sont capables de dire « oh là, là ! Vous êtes vous formidable, je vous aime », « je suis triste pour toi ! » [prononcés avec les emphases correspondantes, NdT]. Tout ça c’est du bluff parce que la machine ne ressent rien ; elle ne fait que répéter des choses qu’on lui a dites ou alors elle les joue au moment où elle détecte quelque chose chez vous. Voilà ! Ça je sais très bien faire. C’est pour ça que je suis sortie de mon labo, on faisait ça pour essayer de faire des assistants pour les personnes dépendantes. Moi j’ai toujours dit c’est absolument utile, mais maîtrisons le cadre de ces genres de recherche. L’interaction humain-machine on projette dessus ; les technologies qu’on intègre sont assez limitées et il ne faut pas faire un bluff autour de ça.

Nicolas Martin : Pour continuer dans la projection, puisqu’on a bien compris aujourd’hui que l’IA forte ça n’est pas pour demain, même vraisemblablement pour après-demain, on va réduire un peu l’espace de projection. Est-ce que ce qui arrive, ce qui est en cours, c’est l’apprentissage non supervisé ? On a dit tout au long de cette table ronde que l’intelligence artificielle était très forte sur des domaines très ponctuels, très précis. Et ce qui arrive est une machine qui n’est plus juste précise pour jouer au go ou gagner au jeopardy!, mais pour avoir plusieurs compétences, donc une machine qui serait compétente sur divers secteurs de reconnaissance. Quelle est l’avenir de cette intelligence artificielle à moyen terme, Jean Ponce ?

Jean Ponce : Même ça c’est difficile à prédire. Tout à l’heure je racontais l’histoire d’apprentissage supervisé. Les gens mettent des étiquettes. C’est épouvantablement coûteux. Effectivement chacun de nous, quand il clique sur des machins sur Internet, aide un peu à ça, mais c’est quand même très coûteux. Et donc un des objectifs de la science de l’intelligence artificielle, c’est l’apprentissage non supervisé pour lequel on donne juste les données sans avoir d’intervention manuelle. Mais ça, c’est très difficile à faire donc des tas de gens y travaillent ; chez nous on y travaille, il y a beaucoup de gens qui y travaillent, mais ça reste très difficile. Et j’ai un de mes collègues, qui s’appelle Emmanuel Dupoux qui est un bon exemple pour ça. Je m’emmêle toujours les pédales dans les nombres qu’il donne. C’est quelqu’un qui vient des sciences cognitives, qui travaille sur l’apprentissage chez les bébés. Et ce qu’il dit c’est qu’aujourd’hui, genre Google Translate ou ce genre de truc, ça marche sur, je ne sais pas, une soixantaine de langages. Dans le monde entier il y a, je ne sais plus, 3000 langages, mes chiffres sont sûrement complètement faux et il y a les 60 langages, je ne sais pas, il y a un milliard et demi de gens qui les parlent, mettons trois milliards, ça laisse de côté trois milliards de personnes. Aujourd’hui, pour entraîner ces systèmes, il y a un linguiste qui prend des notes sur des dizaines de milliers d’heures de paroles. Un bébé, lui, il n’y a aucun linguiste qui prend des notes parce que, de toutes façons, le bébé ne sait pas lire. Et le bébé apprend quand même tout seul, enfin avec ses parents, mais sans les annotations, etc., il apprend tout seul à parler. Donc il y a des énormes enjeux de scale up, je ne sais pas comment on dit, de passage à l’échelle. Si on arrive à résoudre ces problèmes d’apprentissage non supervisé ou sans doute, plus raisonnablement, faiblement supervisé, c’est-à-dire qu’on donne très peu d’annotations, on se contente des métadonnées qui sont présentes dans les données qu’on trouve sur Internet, à ce moment-là il y a des gros enjeux ; enfin plutôt, on arrivera à faire beaucoup de choses. Je pense que c’est un des gros enjeux aujourd’hui et là où il faut espérer des gros progrès dans les dix années à venir.

Nicolas Martin : L’apprentissage économe plutôt que l’apprentissage supervisé.

Laurence Devillers. : Exactement. Parcimonieux. Et c’est ce qu’on fait déjà dans le traitement de la parole. On l’a fait souvent au LIMSI, dans le laboratoire où je suis, pas forcément moi, mais des chercheurs renommés en tout cas. Et c’est vrai qu’on a pu montrer qu’il suffisait d’étiqueter très finement quelques heures de discours et qu’on arrivait à des performances comparables. Si vous prenez 20 heures par exemple de discours, vous faites une intonation très fine et vous créez un système ; après vous prenez une heure de très bien décrit et puis vous prenez, par contre, 4000 heures de discours, eh bien vous pouvez arriver aux mêmes performances. Donc le passage à l’échelle est possible. La parcimonie dans l’apprentissage c’est ce qu’on recherche tous, les chercheurs.

Après, ce qu’il faut comprendre, c’est qu’on n’arrivera jamais à faire un système parfait. Il ne répondra pas à tout. Il y aura toujours ce pourcentage qui fait qu’on ne sera pas à 100 %. Donc là on crée des systèmes qui ne sont jamais fiables à 100 %. Il faut comprendre ce genre de choses et puis être capables de les utiliser à bon escient. C’est-à-dire qu’on ne va pas mettre nos sécurités en jeu si c’est ça, sauf que, je reviens sur ce que vous avez dit au début, la voiture autonome, eh bien effectivement il y a moins de morts. Si vous regardez les chiffres de mortalité quand ce sont des humains qui conduisent, c’est beaucoup plus élevé. Donc le risque zéro n’existe pas, mais si on descend de 100 les morts sur la route, pourquoi ne pas utiliser des machines autonomes ?

Nicolas Martin : On reviendra aux questions tout à l'heure comme vous le savez ; on en a déjà parlé deux-trois fois au cours ce cette heure. Un mot pour conclure, Benjamin Bayart, est-ce que, effectivement, on arrive à cet objectif qui est que de ne plus avoir une extrême performance dans l’apprentissage très pointu, mais s’approcher vers ce que disait Jean Ponce, l’apprentissage d’un enfant c’est-à-dire un apprentissage progressif dans plusieurs secteurs ?

Benjamin Bayart : Sur l’état de l’art dans le domaine de l’apprentissage dans l’intelligence artificielle, c’est plutôt à Jean Ponce et Laurence Devillers qu’il faut demander. Je suis beaucoup trop loin, je n’ai pas joué à ça depuis mes études. En revanche, l’image du bébé est très mauvaise. Parce qu’en fait, un bébé apprend parce qu’il aime sa mère, parce qu’il aime son père. Donc vous ne pouvez pas supposer que l’ordinateur va apprendre parce qu’il vous aime ; ça supposerait qu’il vous aime ; ça supposerait qu’il ait une émotion ; ça supposerait qu’il ait un cœur.

[Applaudissements]

Jean Ponce : Il apprend peut-être un tout petit peu pour survivre aussi.

Benjamin Bayart : Oui, mais ça suppose qu’il y ait un conatus, ce que l’ordinateur n’a pas.

Laurence Devillers. : Bravo ! Exactement !

Benjamin Bayart : Donc l’image n’est pas la bonne. Ce qu’on essaye de faire c’est quelque chose qui pourrait ressembler, peut-être un petit vu de loin par temps de brouillard, c’est-à-dire comment apprendre un langage sans qu’on vous l’explique par un formalisme très complexe et des milliards d’exemples et des centaines de milliards d’essais et d’erreurs. Mais ça ne sera pas la façon dont un bébé apprend. C’est exactement ce que je disais tout à l’heure : on trouve un problème dont on se dit « tiens ça c’est un signe d’intelligence, on va le faire faire par un ordinateur », et à la fin on a toujours un ordinateur con, mais qui sait résoudre ce problème-là ! Conduire une voiture, si vous aviez demandé à ma grand-mère, il fallait être humain pour ça ! On va réussir à le faire faire à un ordinateur beaucoup mieux que nous ; je veux dire les voitures autonomes sont déjà meilleures que nos conducteurs, mais ces voitures sont parfaitement idiotes et sont incapables de comprendre un jeu de mots le plus débile possible.

Nicolas Martin : Laurence Devillers, en un mot.

Laurence Devillers. : Juste pour imager ça, il y a un roboticien qui est formidable qui travaille à Inria qui fait un robot qui fait des crêpes. Faire des crêpes on sait tous que ce n’est pas super facile. Juste pour vous donner l’exemple de ce qu’il fait et il apprend automatiquement à faire des crêpes. Donc on lui met une crêpe en plastique, sinon il en mettrait partout, et il essaye de la faire sauter et elle tombe, elle tombe, elle tombe jusqu’à certain temps où paf ! la crêpe saute tout le temps. Tac ! Tac ! Tac ! L’humain, à côté, il la fait peut-être chuter une fois, mais la deuxième fois, il la fait. Vous changez la grosseur de la taille de la crêpe, vous la remettez dans la poêle, le pauvre robot eh bien il recommence ; c’est laborieux l’apprentissage d’un robot ; c’est de la créativité laborieuse. Il va recommencer ça un certain temps et puis il va retrouver le bon mouvement pour faire sa crêpe. C’est vraiment ça l’apprentissage des machines. C’est un apprentissage laborieux qui n’a rien d’instinctif, sans sens commun, sans compréhension, rien à voir avec un enfant !

Nicolas Martin : Eh bien voilà, ce sera la fin. Vous voyez qu’on peut conclure une émission, un tour de table d’une une table ronde scientifique en se disant que tout est rendu possible grâce à l’amour. Merci beaucoup Benjamin Bayart. Merci à vous trois. Merci Laurence Devillers. Merci Jean Ponce.

[Applaudissements]

Et voici le moment tant attendu, celui des questions. Il me semble qu’il y en a quelques-unes par ici. On va faire passer des micros. On a une petite dizaine de minutes, un quart d’heure, pour des questions. Qui veut commencer ? Il y a une main qui se lève par ici. Mademoiselle. Attendez, on va vous faire passer un micro.

Public : Bonjour.

Nicolas Martin : Bonjour.

Public : Merci beaucoup ; c’était vraiment très intéressant. J’aurais juste aimé vos points de vue sur le scandale Facebook-Cambridge Analytica et particulièrement sur une entreprise qui est prise dans le scandale qui s’appelle Palantir. Voilà. Merci.

Nicolas Martin : Benjamin Bayart est la personne toute trouvée pour ces questions liées à Facebook.

Benjamin Bayart : Mon point de vue. Pour le coup je vais ressortir ma casquette d’apprenti juriste. Ce sont des données qui ont été collectées avec une finalité particulière. C’est-à-dire que les gens qui ont consenti à donner leurs données personnelles ont consenti à un traitement particulier. Le traitement qui est fait n’a aucun rapport ; c’est-à-dire le fait que ce soit utilisé pour faire du profilage politique et pour faire de la campagne politique n’a rien à voir avec ce qui était l’usage destiné au départ. Ça c’est totalement contraire au droit européen ; c’est probablement contraire à certains morceaux du droit américain ; c’est moins clair parce que le droit américain est moins protecteur. Voilà ce que j’en pense : c’est de l’abus de confiance.

L’autre interrogation qu’il faut avoir là-dessus est une interrogation d’ordre purement et entièrement non pas juridique mais politique. Facebook ne produit rien et n’a rien à vendre à part vos données. La seule chose qui est source de profit dans Facebook ça n’est pas l’abonnement que vous payez, ce sont vos données. Et je le dis pour Facebook ; c’est vrai pour Twitter, c’est vrai pour Google, c’est vrai pour plein d’autres services. Vous n’êtes pas client dans ces sociétés. Ces sociétés ont besoin de gagner de l’argent et vous n’êtes pas le client ; vous êtes le produit. Et ne vous étonnez pas qu’on maltraite le produit !

[Applaudissements]

Nicolas Martin : Une question par ici. Monsieur ici, un micro, voilà, ça arrive derrière vous monsieur.

Jean Ponce : Si je peux me permettre.

Nicolas Martin : Jean Ponce.

Jean Ponce : Si je comprends bien, si c’est le cadre que je connais, c’est avec Cambridge Analytics et ce n’est pas Facebook qui a vendu les données à Cambridge Analytics. C’est le psychologue qui avait collecté des données pour une étude scientifique qui a vendu les données à Cambridge Analytics, ce qui n’est pas bien. Maintenant, par contre, Facebook a fait évidemment une grosse erreur c’est de laisser les applications qui étaient destinées à collecter les données pour ces 250 000 personnes, avoir accès à 50 millions de personnes. Et ça, évidemment, ce n’est pas bien. Mais ils n’ont pas essayé de vendre ces données à qui que ce soit.

Benjamin Bayart : Je ne dis pas que Facebook les vend, je dis que Facebook ne les protège pas, parce qu’il n’a pas intérêt à vous protéger parce qu’il ne sert pas vos intérêts.

Jean Ponce : Bien sûr !

Laurence Devillers : C’est dangereux.

Benjamin Bayart : Après, qu’il les vende ou qu’il ne les vende pas ne change rien. L’argent n’est pas le sujet.

Nicolas Martin : Monsieur une question. Bonjour.

Public : Bonjour. Faut-il créer une juridiction spéciale pour les robots, pour ceux qui les fabriquent ou pour ceux qui les utilisent ? Ou ceux qui réfléchissent à leur utilisation ?

Nicolas Martin : Qui veut répondre ?

Public : Actuellement il y a quelqu’un, il y a un juriste qui a écrit, qui a déjà commencé à écrire un droit des robots. Je voulais savoir ce que vous en pensez.

Laurence Devillers : Alain Bensoussan.

Nicolas Martin : Laurence Devillers.

Laurence Devillers : À la table ronde précédente ils ont déjà abordé la taxe des robots. La juridiction, le fait de faire une personnalité juridique sur une tête de robot n’a aucun sens, parce que le robot ne décide pas tout seul. Il va décider à partir de logiciels qu’on a mis dedans. Vous me laissez finir, vous me laissez finir monsieur.

Public : Une juridiction de l’utilisation de la création du robot. Pas la juridiction du robot lui-même qui n’est pas un être.

Laurence Devillers : C’est une aberration. D'accord !

Nicolas Martin : On va laisser Laurence Devillers vous répondre. Allez-y.

Public : Mais il faut qu’elle comprenne ma question !

Laurence Devillers : Après il faut savoir qu’on n’est pas tout seul au monde. Donc on ne va pas interdire en France ni de faire de recherche sur les robots, ni à des sociétés de faire des robots encadrés. Ça serait vraiment se couper du monde entier. Les robots sont construits en Asie, en grand nombre ; on va les avoir qui arrivent ; on a déjà Google Home qui n’est pas un robot, qui est bot, un agent conversationnel qui est chez nous, il faut comprendre comment ça marche ; il faut comprendre comment les réguler. Pour ça, il faut en faire chez nous aussi. Donc ça serait vraiment inapproprié de faire cette régulation dans ce sens-là.

Nicolas Martin : Jean Ponce.

Public : Vous n’avez pas compris ma question. Il ne s’agit pas des robots, il ne s’agit pas de la France.

Nicolas Martin : On va laisser Jean Ponce vous répondre et puis on va passer, parce que vous n’est pas tout seul et qu’il y a d’autres questions qui se posent dans l’assemblée.

Jean Ponce : Je ne suis pas certain d’avoir compris votre question. Mais il y est clair que les régulations, en tout cas, vont changer. Par exemple pensez aux voitures autonomes, elles ne sont pas encore là aujourd’hui, autant que je comprenne. Il y a les systèmes de niveau 2 qui ont le droit d’évoluer sur l’autoroute, mais en Europe en tout cas, ils n’ont certainement pas le droit d’évoluer en ville. Donc les régulations vont devoir changer. Il va falloir comprendre où résident les responsabilités. Les responsabilités sont-elles chez le constructeur ? Chez la personne qui fait les systèmes de perception ? Chez le conducteur, même s’il ne conduit plus réellement bien qu’aujourd’hui il ait les mains sur le volant ? Ou bien sur le piéton qui va se faire écraser s’il le faut ? Enfin s’il le faut, si un accident arrive plutôt ! Donc il va y avoir besoin d’énormément de régulation à ce niveau-là pour des problèmes qui sont complexes et qui mettent en jeu beaucoup d’acteurs différents.

Laurence Devillers : D’accord. Mais c’est ce que j’avais essayé d’expliquer au début, mais on m’a dit que ce n’était pas la bonne réponse.

Jean Ponce : J’ai clarifié ! J'ai clarifié !

Nicolas Martin : Benjamin Bayart.

Benjamin Bayart : Pour moi, il y a point qui est vrai qui est que l’apparition de systèmes de plus en plus automatisés a des impacts sur le droit. En particulier s’il y a un accident alors que c’est un système autonome qui conduit : qui est responsable ? Ça aura deux ou trois impacts mais tout petits ; vraiment tout petits ; ça ne changera presque rien au droit. En revanche, est-ce qu’il y aura un droit spécifique des robots ? Je pense que la réponse est non parce que ça n’a pas de sens. La responsabilité est toujours humaine à un moment. La responsabilité c’est toujours un humain. Si vous utilisez un robot pour faire du mal, vous êtes un malfaiteur, au sens premier du terme. Donc la question de responsabilité derrière est une question qui ramène à des humains. Donc il y aura vraiment quelques points assez précis, mais qui seront assez faibles. Donc je ne crois pas qu’il y ait un droit spécifique, seulement deux-trois détails.

Jean Ponce : Mais que ce soit pour les voitures ou d’autres systèmes automatisés, évidemment la responsabilité ultime est chez la personne, mais quelle personne en particulier ? Un système complexe est fait de nombreux modules qui interagissent, qui peuvent être faits par des gens différents. Où est la responsabilité ? Ce sont des problèmes scientifiques, même ça.

Nicolas Martin : En un mot pour prendre une autre question après.

Benjamin Bayart : Non, non ! C'est un problème juridique ! Laissez les juristes faire, ils savent faire !

Nicolas Martin : Laurence Devillers, en un mot pour conclure.

Laurence Devillers : On a fait des rapports à la CERNA qui est un comité d’éthique qui travaille sur la recherche de l’éthique, sur ces sujets avec des juristes. On a une responsabilité qui va être liée au concepteur, à l’entraîneur, à celui qui a mis les données dans la machine et, probablement – alors je schématise un peu mais c’est plusieurs formes de conception, la conception de l’algorithme, la conception du système entraîné – et puis de l’utilisateur : si on fait des machines qui s’adaptent à l’utilisateur, il va mettre des données aussi. C’est un peu comme vous avez un chien et vous dites « aller mordre le voisin ». Si vous créez une machine qui modifie son comportement parce que vous lui donnez des données différentes ou vous essayiez de le rendre différent de ce qu’il était originellement, vous êtes responsable de ce que vous faites.

Nicolas Martin : Deux questions rapides. Monsieur, oui s’il vous plaît et puis le jeune homme et ce sera la dernière question parce qu’on va être courts en temps. Oui Monsieur, une question courte s’il vous plaît.

Public : Je voudrais poser une question pour obtenir la définition de l’intelligence. On en parle beaucoup.

[Rires du public]

Nicolas Martin : On a essayé de commencer la table ronde par ça, donc on ne va peut-être pas y revenir, monsieur. Il y avait un jeune homme qui avait une question là-bas au fond. Et je pense que ce sera la dernière question qu’on aura le temps de prendre. Avant je vous rappelle dans quelques instants la lecture, l’entretien de clôture avec Cédric Villani dans quelques minutes. Oui ?

Public : Bonjour.

Nicolas Martin : Bonjour.

Public : J’aimerais savoir ce que vous pensez du recours à l’IA dans certains domaines, l’armement avec les armes légales autonomes d’une part et l’exercice du droit avec le recours à certaines prédictions, par exemple sur les scores de récidive. Est-ce qu’il faut l’autoriser, le réguler ? Qu’en pensez-vous ? Merci.

Laurence Devillers : C’est compliqué sur le juridique parce qu’on voit que ce qui est montré en avant c’est que les juges, suivant qu’il soit avant manger, après manger, il y a des tas de choses qui montrent que l’humain lui-même n’a pas forcément la même décision. Maintenant, la machine ne regarde que ce qui est passé et avec des a priori qui sont donnés par les données qui sont mises dans la mise dans la machine et souvent de façon pas suffisante. C’est-à-dire qu’on a vite des problèmes de discrimination raciale, des problèmes de où vous habitez, qui vont venir être des garants de ce que va faire la personne après. Donc pour l’instant ces systèmes-là sont à utiliser avec énormément de précautions. Mais de toutes façons, dans toutes ces aides à la décision, il faut voir ça effectivement comme un outil qui permet d’avoir une opinion et l’humain se fait une autre opinion. Il faut apprendre aux humains à comprendre les biais qu’auront ces machines. Comment elles font pour décider ? À partir de quoi ? Et, en bonne intelligence, c’est à l’humain, qui est responsable, de décider.

Nicolas Martin : Oui, Jean Ponce, après Benjamin Bayart. Rapidement.

Jean Ponce : Juste un mot, il faut se souvenir, je crois que c’est Laurence qui le disait tout à l’heure, ce que sortent ces programmes n’est pas parfait. Donc moi quelqu’un essaie de me vendre un programme qui décide si quelqu’un est un terroriste ou quelqu’un que je n’aime pas ou un machin comme ça, c’est absurde. Faire confiance à un programme qui va marcher dans x % des cas, où on est toujours content du x quel qu’il soit, et qui va faire, par nature, des mauvaises décisions de temps en temps, il ne faut pas. Des aides à la décision en étant très prudents, why not!. Mais dans des sujets qui peuvent être quand même très délicats, il y a beaucoup d’absurde ici.

Nicolas Martin : Benjamin Bayart.

Benjamin Bayart : Pour moi les deux cas sont extrêmement différents. L’intelligence artificielle utilisée dans l’armement c’est une arme. Point. Je me fous que ce soit une intelligence artificielle ou que ce soit un robot ou que ce soit un tank avec un volant. Je n’en ai rien à cogner ! C’est une arme ! C’est une arme, c’est donc utilisé par les militaires. Les responsables de tout ce que cette chose fera, ce sont les militaires, ce sont les politiques qui commandent les militaires. Ça, ça ne bouge pas.

En revanche, en matière de justice, je suis extrêmement sceptique, en particulier même comme aide, même comme aide, si le juge n’a pas reçu une formation colossale sur toutes les limites et tous les biais et tous les travers et tous les petits risques de l’intelligence artificielle. Parce que ça veut dire que c’est l’ordinateur, ce n’est pas une intelligence artificielle, c’est un ordinateur qui va analyser le dossier, qui va dire « pour moi, à 99 % il est coupable ». Mais le juge qui n’a pas reçu la formation il fait : « OK, on condamne » et il ne va pas plus loin. Or ça, ça ce n’est pas possible ! Le principe même de la justice, c’est le débat contradictoire ; c’est le fait d’être jugé par ses pairs, c’est-à-dire par nos pairs en humanité et en citoyenneté. Il n’est pas possible que ce soit remplacé pas un ordinateur ; pas pour les choses sérieuses. Pour mesurer un excès de vitesse, on s’en cogne. Pour les trucs sérieux, pour décider si vous irez en prison, non !

[Applaudissements]

Nicolas Martin : Je vais rebondir là-dessus pour vous poser une question et on prend la question de mademoiselle. Prenons un cas concret que tout le monde connaît ici, l’affaire Grégory. L’affaire Grégory a été relancée parce que le dossier a été mouliné par un algorithme qui a vu des liens de causalité là où les magistrats, a priori, instructeur et enquêteur, n’avaient pas vu de liens de causalité. Où on en est Laurence Devillers par rapport à un cas tel que celui-là qui complète, j’imagine, la question que le jeune homme avait ?

Laurence Devillers : C’est pour ça qu’on dit que ça peut-être des outils puissants pour aider à des décisions, mais en aucune façon remplacer les décideurs. Si on a énormément de dossiers, de temps en temps ça va aider, de temps en temps ça va apporter des bugs. Bien sûr que ça peut marcher. Mais c’est cette possibilité que ça ne marche pas qu’il faut garder en tête et la décision doit rester à l’humain.

Nicolas Martin : Benjamin Bayart, pour répondre à ça rapidement.

Benjamin Bayart : Typiquement sur ce type d’affaire, c’est-à-dire que des magistrats ont planché pendant longtemps, n’ont pas trouvé, l’ordinateur regarde et dit : « Ah peut-être ! » Et là, d’autres magistrats se mettent à regarder en disant « peut-être ! » Ça c’est OK. Mais pas plus !

Nicolas Martin : Mademoiselle.

Public : Je reviens à l’exemple du chatbot et du système du reinforcement learning et le système de récompense. Est-ce qu’on est bien d’accord qu’on a toujours la main sur ce système de récompense parce qu’il faut penser à toutes les règles de gestion, à tous les scénarios possibles. Si je prends le simple exemple d’un scoring, si on ne pense pas à tous les scénarios possibles, on va certainement oublier certains scénarios qu’on va laisser de côté et qui vont fausser, peut-être d’une certain manière, nos résultats.

Et je reviens aussi à un autre point par rapport au choix de l’humain d’utiliser l’intelligence artificielle et les robots. On voit de plus en plus que les gens s’orientent plus vers la machine, vers leur smartphone que d’aller directement vers les personnes. Par exemple là, pour rencontrer du monde on passe par des sites de rencontre alors qu’avant on allait directement parler aux gens. Je pense que c’est aussi de notre responsabilité à nous, en tant qu’humains, d’avoir cet aspect éthique et humain dans nos relations avec les autres aussi.

Laurence Devillers : Tout à fait. Moi je suis sortie de mon labo pour parler des assistants robotiques pour les personnes âgées. Vous voyez à quel point ça me posait des questions parce que je voyais le fort pouvoir de manipulation que pouvaient avoir ces machines. Effectivement vous soulevez la problématique de choix de société. Qu’est-ce qu’on fait ? Quand est-ce qu’on décide qu’on va utiliser ce genre d’outil ou pas ? Pour du divertissement ? On en fait des gadgets, on en fait des choses qui vont être omniprésentes autour de nous et qui vont nous empêcher d’aller vers les autres. Ou au contraire, dans les EHPAD, ce que j’ai vu par exemple, ça crée du lien social entre les gens. Les gens venaient, appelaient, et la machine allait de l’un à l’autre. Donc il faut être créatif dans ces histoires. C’est-à-dire qu’on a des performances réelles, intéressantes, grâce au deep learning, grâce au reinforcement learning, avec des risques, et il faut pouvoir créer des choses qui nous seront utiles. C’est ça le challenge de demain ; c’est là-dessus qu’on réfléchit et je pense que les discours qui ont été faits, le plan Villani ; lisez un peu ce document, il y a énormément de choses autour de l’éthique.

Nicolas Martin : Eh bien vous allez faire mieux que lire, vous allez entendre la personne que l’a fait ! Merci beaucoup à tous les trois. Merci Laurence Devillers. Merci Jean Ponce. Merci Benjamin Bayart. Restez dans l’amphithéâtre puisque dans quelques minutes Cédric Villani sera là pour le dialogue de clôture avec Olivia Gesberg. Merci à tous.

Pourquoi défendre le logiciel libre ? - France Culture - 27 mai 2018 à 09h42

mar, 05/22/2018 - 09:14
Début: 27 Mai 2018 - 09:42Fin: 27 Mai 2018 - 10:00

Véronique Bonnet, vice-présidente de l'April, sera l'invitée dimanche 27 mai 2018 à 09h42 de l'émission « Divers aspects de la pensée contemporaine » sur France Culture pour répondre à la question : « Pourquoi défendre le logiciel libre ? »

Le texte d'annonce de l'émission :

« Comment promouvoir une informatique plus libre et plus indépendante des GAFAM, ces sociétés qui se nourrissent de nos données ? Comment garantir une réelle liberté d'expression et une vraie indépendance politique ? Une émission proposée par l'Union rationaliste. Nous recevons ce dimanche Véronique Bonnet, Professeur de philosophie en classes préparatoires au Lycée Janson de Sailly et vice-présidente de l'Association April »

Decryptualité du 21 mai 2018 - Parcoursup publié en libre sur Framagit

mar, 05/22/2018 - 00:13

Écouter ou télécharger le décryptualité du 21 mai 2018 (15 minutes)

    Parcoursup, le logiciel du ministère de l'enseignement supérieur qui gère les affectations des étudiants en fonction de leurs souhaits est publié en libre.
    Générique – La prose du pépère – Les Barons Freaks – Licence Art Libre (LAL)

 Syndiquer le contenu grâce à votre agrégateur de flux RSS

Revue de presse de l'April pour la semaine 20 de l'année 2018

lun, 05/21/2018 - 11:45

La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

En podcast.

Sommaire de la revue de presse de l'April pour la semaine 20

[Programmez!] Mozilla publie un rapport pour faciliter la mise en place de projets

Par Frederic Mazue, le mercredi 16 mai 2018. Extrait:
> Mozilla et l’Open Tech Strategies annoncent la publication d'un rapport destiné à mieux comprendre le fonctionnement d’un projet Open Source, depuis la stratégie jusqu’à la gouvernance, en passant par leur fonctionnement au quotidien. Le rapport repose sur la stratégie “Open by Design” de Mozilla, qui vise à optimiser le développement et l’impact de projets technologiques collaboratifs, à l’aide des communautés et autres parties prenantes extérieures.
Lien vers l'article original: https://www.programmez.com/actualites/open-source-mozilla-publie-un-rapport-pour-faciliter-la-mise-en-place-de-projets-27561

[La gazette.fr] Dématérialisation: «Le potentiel de gains pour l’usager, et pour les services publics est extraordinaire»

Par Gabriel Zignani Romain Mazon, le mercredi 16 mai 2018. Extrait:
> Henri Verdier, directeur interministériel du numérique et du système d'information de l'Etat français est au coeur de la transformation numérique du secteur public, jusqu'à l'opendata, puisqu'il est également administrateur général des données (AGD). La Gazette l'a longuement interviewé, sur l'ensemble des dossiers à l'ordre du jour des collectivités. Premier volet d'une série qui en compte trois: la dématérialisation des services publics, et l'administration numérique.
Lien vers l'article original: http://www.lagazettedescommunes.com/563650/dematerialisation-le-potentiel-de-gains-pour-lusager-et-pour-les-services-publics-est-extraordinaire

[ZDNet France] Outils publics: la Dinsic publie son guide en matière d’ouverture du code

Par Louis Adam, le mardi 15 mai 2018. Extrait:
> Dans un document en ligne, la direction interministérielle des systèmes d’information et de communication de l’Etat détaille ses bonnes pratiques et recommandations en matière d’ouverture du code source des outils développés par et pour les administrations. Une mesure prévue par la loi République Numérique en 2016.
Lien vers l'article original: http://www.zdnet.fr/actualites/outils-publics-la-dinsic-publie-son-guide-en-matiere-d-ouverture-du-code-39868220.htm

Et aussi:
[Le Monde Informatique] La DINSIC clarifie sa politique de contribution vis-à-vis du logiciel libre
[cio-online.com] La DINSIC clarifie sa politique de contribution vis-à-vis du logiciel libre

[Le Journal de Montréal] Montréal: une nouvelle politique sur les logiciels libres

Par Sarah Daoust-Braun, le mardi 15 mai 2018. Extrait:
> La Ville de Montréal se dote d’une nouvelle politique sur l’utilisation et le développement de logiciels et de matériels libres sur 10 ans, pour se libérer à terme des licences et du menottage informatique.
Lien vers l'article original: http://www.journaldemontreal.com/2018/05/15/montreal--une-nouvelle-politique-sur-les-logiciels-libres

Et aussi:
[L'Informaticien] Le logiciel libre a-t-il toujours la cote auprès de l’Administration?

[Association mode d'emploi] L’éducation populaire se réinvente

Par Michel Lulek, le mardi 15 mai 2018. Extrait:
> Traditionnellement ancrée dans la culture, les sports et la jeunesse, l’éducation populaire a également investi de nouvelles thématiques. Elle est en particulier très ­présente dans le champ du numérique autour du mouvement des logiciels libres, des données personnelles et plus globalement de ce qu’on appelle les communs.
Lien vers l'article original: https://www.associationmodeemploi.fr/article/l-education-populaire-se-reinvente.64234

Note

Les articles de presse utilisent souvent le terme « Open Source » au lieu de Logiciel Libre. Le terme Logiciel Libre étant plus précis et renforçant l'importance des libertés, il est utilisé par l'April dans sa communication et ses actions. Cependant, dans la revue de presse nous avons choisi de ne pas modifier les termes employés par l'auteur de l'article original. Même chose concernant l'emploi du terme « Linux » qui est généralement utilisé dans les articles pour parler du système d'exploitation libre GNU/Linux.

L'April présente à la HitchHack le 19 mai 2018 à Vannes

ven, 05/18/2018 - 15:06
Début: 19 Mai 2018 - 09:30Fin: 19 Mai 2018 - 17:30

La 2ème édition de la HitchHack se déroulera le samedi 19 mai 2018 à Vannes.

La HitchHack est une journée de rencontre (conférences/ateliers/village associatif) organisée par l'association d'étudiant⋅e⋅s en sécurité informatique Hack2G2. Les axes d'action de Hack2G2 sont la promotion du logiciel libre, la protection de la vie privée en ligne, l'hygiène numérique et le partage de la connaissance informatique en général. L'événement est publique et ouvert à tous et à toutes.

À cette occasion, l'April participera avec un stand partagé avec l'association Rhizomes, qui fait la promotion du logiciel libre dans le Morbihan.

Si vous souhaitez participer à l'animation du stand, n'hésitez pas à vous inscrire sur notre wiki.

Pages