Luc - Magali - Manu – Nicolas - Simon

Titre : Décryptualité du 2 avril 2018 - L'engagement du gouvernement en faveur de la recherche sur les IA
Intervenants : Luc - Magali - Manu – Nicolas - Simon
Lieu : Studio d'enregistrement April
Date : avril 2018
Durée : 14 min
Écouter ou télécharger le podcast
Revue de presse pour la semaine 13 de l'année 2018
Licence de la transcription : Verbatim
Illustration : Michel Royon - Wikimedia Commons - Creative Commons CC0 1.0 Universal Public Domain Dedication.
NB : transcription réalisée par nos soins. Les positions exprimées sont celles des intervenants et ne rejoignent pas forcément celles de l'April.

Transcription

Luc : Décryptualité.

Nico : Le podcast qui décrypte l’actualité des libertés numériques.

Luc : Semaine 13. Salut Manu.

Manu : Salut Mag.

Mag : Salut Nico.

Nico : Salut Simon.

Simon : Et bonjour à vous.

Luc : Simon on t’a déjà reçu dans la revue de presse ; tu passes à la maison une fois de temps en temps et on a toujours plaisir à te recevoir. Manu, au sommaire, qu’est-ce qu’on a ?

Manu : Pour cette semaine 13, on a six articles assez sympathiques

Mag : On commence par Le Figaro, « PeerTube, une tentative d'alternative française et décentralisée à YouTube », par Pauline Verge.

Manu : Une tentative française d’alternative c’est quand même sympa ! Le Figaro qui parle de logiciel libre, logiciel libre développé notamment par Framasoft pour essayer de faire concurrence à YouTube. C’est assez sympathique.

Mag : Usbek & Rica, « Cédric Villani : "Je n’ai pas peur de la singularité technologique" », par Fabien Benoît.

Simon : Il est bien le seul !

Manu : C’est le sujet qu’on va essayer d’aborder un peu plus tard, l’intelligence artificielle, parce que notamment Macron est intervenu et a fait des déclarations qui sont intéressantes à analyser.

Luc : Et il y a de la tune !

Mag : France Culture, « J’ai voulu reprendre le contrôle de mes données », par Abdelhak El Idrissi.

Manu : Tout un reportage de France Culture donc ça touche pas mal de monde, qui parle notamment de Facebook qui est un des gros sujets, qu’on a déjà abordé.

Luc : La semaine dernière.

Mag : Le Monde Informatique, « Violation de brevets Java par Google : la justice donne raison à Oracle », par Dominique Fillippone.

Manu : C’est rageant. C’est un sujet qui est assez vieux dont on a déjà parlé plusieurs fois. Il y a des tribunaux aux États-Unis qui avaient considéré que Google avait le droit d’utiliser Java, Java contrôlé normalement par Oracle, eh bien là, ils remettent tout cela en question ; ils remettent une pièce et ça relance le jeu : les brevets, le droit d’auteur. C’est assez compliqué. Je suppose qu’on en reparlera.

Mag : La Tribune, « Menace sur le logiciel libre », par Frédéric Duflo.

Manu : Ce sont l’ADULLACT et l’AFUL qui sont inquiètes de ce qui se passe au niveau des législations, française et européenne, notamment sur le droit d’auteur et le contrôle des données. Il y a des choses assez compliquées qui se mettent en place en ce moment.

Mag : Chroniques d’Architecture, « Qui dit libéral dit (logiciel) libre ? », par Le Geek de Chroniques.

Manu : Un article assez sympathique en fait. Quand ils utilisent le terme libéral ce n’est pas libéral au sens politique. Ce sont les architectes qui se mettent dans leurs propres cabinets, ils sont libéraux, et ils ont des problèmes parce que les logiciels qu’ils utilisent sont très chers, des logiciels propriétaires bien sûr, et pourtant dans le logiciel libre il y a des alternatives.

Simon : Libéraux, mais pas libérés !

Manu : Pas encore, en tout cas tant qu’ils n’ont pas lu l’article.

Mag : Et après ils seront délivrés ? C’est ça ?

Manu : Exactement !

Luc : Ces temps-ci il y a pas mal de sujets vraiment intéressants. On parlera probablement de PeerTube la semaine prochaine, mais cette semaine on voulait parler des IA et de la super déclaration de Macron et de Villani, tout ça, parce que c’est le sujet brûlant du moment.

Manu : Eh oui ! Ils ont quand même fait tout un rapport assez conséquent. Il y a eu une intervention de Macron qui a été reprise par tous les journalistes, notamment pour dire qu’ils n’y comprenaient pas grand-chose. C’était un peu compliqué pour eux.

Nico : On va peut-être commencer déjà par définir ce que c’est que l’intelligence artificielle. Simon, il me semble que tu as une définition assez précise de ce que c’est ou de ce que ça n’est pas.

Simon : Il y a deux choses à observer là-dessus. Il y a ce que devrait être l’intelligence artificielle, ce dont nous on rêve quand on parle d’intelligence artificielle et puis il y a ce qui se pratique vraiment sur les puces de nos ordinateurs aujourd’hui, qu'on observe et qu’on essaie de nous vendre comme étant ça. L’intelligence artificielle ce serait réussir à avoir des programmes qui miment ce qu’on ne sait pas définir du fonctionnement de notre cerveau, et qui nous permettent de nous adapter à de nouvelles situations et d’improviser.

Luc : Face à de l’imprévu.

Manu : Donc l’intelligence humaine.

Luc : Naturelle.

Simon : En tout cas l’intelligence serait définie par ça. C’est cette capacité à sortir d’un cadre prédéfini et à faire face à l’imprévu. Alors que ce qui est réalisé aujourd’hui c’est du deep learning avec du big data et, en gros, ce sont des algorithmes d’apprentissage en réseaux de neurones, qui existaient déjà dans les années 80, qu’on a dépoussiérés, et qu’on nourrit non plus avec des centaines ou des échantillons de milliers d’exemples, mais avec des milliards d’échantillons. Alors on obtient des résultats un petit peu plus précis. On atteint des objectifs qu’on n’atteignait pas avant, mais il n’y a pas de quoi faire cocorico.

Manu : Parmi les gens qui poussent tout cela, il y a les Google et autres GAFA qui ont des millions de serveurs, de la donnée en veux-tu en voilà et des algorithmes qu’ils mettent en avant et qu’ils ont libérés. Il y a TensorFlow, notamment de Google, qui est mis en avant et que les informaticiens peuvent réutiliser un petit peu à l’envi.

Mag : Oui. Mais du coup, il n’y a aucune réaction à l’imprévu, là !

Nico : Non, c’est ça ! Généralement ces outils-là, quand on les titille un peu trop, ils ont des comportements pas trop normaux, en tout cas qu’on ne s’attend pas à avoir ; des fois qu’on vient présenter comme l’invention d’un nouveau langage : « Tiens, on a fait un nouveau robot écrivain ou peintre. » Mais au final non ! Des fois ça donne des résultats bizarres, mais sans plus.

Luc : Alors vous ratez quand même l’essentiel, c’est que les intelligences artificielles vont toutes nous tuer quoi ! Ce n’est pas que je sois paranoïaque !

Mag : Ah ! Si, si tu es paranoïaque !

Simon : Si on leur donne un milliard d’exemples, peut-être, mais sorties de là elles seront complètement paumées.

Luc : Je dis ça parce qu’il y a quand même des gens importants dont Elon Musk qui est le serial entrepreneur dont on parle très régulièrement qui envoie des fusées et fait des voitures électriques.

Simon : Qui envoie des voitures électriques dans l’espace, dans ses fusées.

Luc : Voilà ! Il a donc, il y a un an ou deux, fait une sorte de courrier signé par Bill Gates, signé par…

Manu : Stephan Hawking.

Luc : Voilà, qui est mort récemment, qui ont dit : «Oui, oui, oui, c’est le plus grand danger que l’humanité ait à affronter ! »

Manu : Donc Terminator ! Ce n’est rien d’autre que cela !

Luc : Et avec cette idée qu’en mettant toute cette puissance de calcul il y a un moment, c’est ce qu’on appelle la singularité1, le machin va devenir conscient et il va se dire « eh, si je butais tout le monde ! »

Manu : Eh bien oui parce qu’après tout l’humanité ça embête et la singularité ça fait partie de ces fantasmes technologiques, assez sérieux, qui existent déjà depuis des années et qui disent : « L’humanité, on ne sait pas trop si elle sera utile ou pas utile aux prochaines intelligences artificielles de la singularité. Est-ce qu’elles seront bénéfiques ou maléfiques envers nous, on ne sait pas ! »

Luc : Pour moi il y a un souci majeur dans cette inquiétude puisque j’ai lu cette lettre ouverte de Musk et, en fait, il n’y a pas le début du commencement d’un argument de comment ça pourrait se passer. Ce sont des sortes de généralités en disant « hou la, mais regardez ! »

Simon : Si ça arrivait, ce serait galère. On est d’accord, mais on en est loin !

Manu : Ils ne savent pas ! La singularité, c’est un mystère encore.

Nico : Peut-être que ça arrivera effectivement un jour. Mais en tout cas, on parle dans des siècles, des millénaires bien devant nous !

Manu : Non ! La singularité c’est supposé arriver là, incessamment sous peu, parce que c’est exponentiel.

Luc : Comme le retour du Christ.

Nico : On rappelle qu’aujourd’hui on est quand même dans les débuts de qu’on va appeler IA ou intelligence artificielle, qui n’est pas du tout intelligent. Ce sont encore les humains qui sont à la base !

Manu : Ce sont les débuts qui datent des années 60. L’intelligence artificielle, ça fait soixante ans que dans vingt ans elle arrive !

[Rires]

Nico : Voilà. Mais aujourd’hui, on a les premiers usages de l’apprentissage et aujourd’hui ce sont encore les humains qui sont derrière les manettes. Ça se voit d’ailleurs dans les derniers rapports c’est qu’en fait les algorithmes aujourd’hui ne font que reproduire ce que l’humain faisait déjà. On retrouve des algorithmes racistes. On retrouve des algorithmes qui ne savent pas faire la différence entre un Noir, un Blanc et un Asiatique parce qu’on a entraîné tous nos algorithmes sur des Blancs et qu’on a oublié les trois quarts de la population mondiale et donc on fait que nourrir les machines avec nos propres biais.

Manu : Oui, mais on a des algorithmes qui ont battu les meilleurs joueurs d’échecs humains, les meilleurs joueurs de Go humains, les meilleurs joueurs de poker humains !

Simon : Ils ne savent pas faire des cours, ceux-là.

Luc : Pour le coup on s’aperçoit aussi, et c’est ça qui est intéressant, c’est qu’il y a certains domaines de nos vies qui sont effectivement facilement automatisables et, en revanche, il y en a d’autres qui ne le sont pas du tout. On voit la manière dont les GAFAM galèrent face aux fake news et ce genre de choses, eh bien leurs supers algos n’arrivent à rien et ils se font entuber et au final, on en parlait la semaine dernière, tous les petits malins qui vendent des fake news parce que ça fait de la pub derrière finalement ce sont eux qui ont hacké le système et ce sont eux qui servent des IA et qui ont réussi à les nourrir avec ce qu’ils avaient envie de leur donner.

Nico : On rappelle le robot Microsoft qui, en 24 heures, avait tourné nazi.

Simon : Et dépressif.

Nico : Et dépressif.

Luc : Villani qui est député et qui a été missionné pour, en gros, parler de ce genre de choses.

Simon : Un mathématicien enthousiaste.

Mag : Un auteur chez Grasset.

Luc : A dit : « Je ne crois pas à la singularité » et là-dessus on lui donne plutôt raison, pas avant très longtemps ! En tout cas, pour le moment, on n’a pas le début du commencement d’un indice de ce qui pourrait se passer et il y a certain nombre de chercheurs en intelligence artificielle qui ne sont pas du genre d'Elon Musk, à se mettre partout dans les médias, etc., qui sont des chercheurs.

Simon : Il y a un doctorat en quelque chose, monsieur Musk ?

Luc : Je ne pense pas, je ne sais pas, mais en gros qui dit : « Tout ça c’est un peu n’importe quoi ! » et la question c'est surtout qui va contrôler ces IA et donc on fait peur pour monter l'enjeu.

Mag : C’est du fantasme ; on l’a dit au départ c’est du fantasme donc ça ne se réalisera pas. Par contre, ça fait de très bons bouquins.

Nico : Et de très bons films aussi. Terminator, Skynet.

Mag : Et de bonnes séries !

Nico : De bonnes séries.

Luc : L’autre chose qui est annoncée, c’est de dire « attention ça va détruire des emplois. »

Manu : Ça ce sont plusieurs économistes ; il y a des économistes éminents qui disent : « Attention ! Là dans les dix prochaines années, les deux tiers des emplois actuellement en place vont disparaître ». Et en fait c’est assez possible.

Simon : Ils ne vont pas disparaître, ils vont être automatisés.

Mag : Est-ce que ce ne serait pas un plus. Je veux dire pourquoi est-ce que l’humain serait condamné à travailler ?

Nico : Aujourd’hui c’est plutôt un problème de société. Aujourd’hui effectivement, quand on n’a pas d’emploi, on est quand même mal intégré dans la société ; on a des problèmes pour survivre, en général, et donc la fin de l’emploi n’est pas forcément un mal en soi, mais ça demande de refondre toute la société pour sortir le travail obligatoire ou le travail qui te fait monter dans la progression sociale pour le remplacer par autre chose.

Luc : C’est un problème de partage des richesses et qui n’est pas nouveau puisque dès qu’on a eu l’automatisation, dès le XIXe siècle, on sait que ça a généré du chômage. Après, la question c’est comment on fait pour que les gens puissent vivre correctement. L’histoire montre que les classes dominantes tolèrent très bien des gens qui crèvent de faim à côté d’eux, ça ne leur pose aucun problème, et on est actuellement dans une période où les inégalités sont en train de s’accroître. Il y a le bouquin notamment de Piketty qui en parle très bien. Donc c’est effectivement plutôt inquiétant de ce côté-là.

Simon : C’est presque même plutôt une démultiplication. Ça va vite. Ça se creuse beaucoup.

Luc : Oui. Au niveau des inégalités effectivement. Par rapport au travail, moi je suis dubitatif, déjà parce que les économistes, leur capacité à prédire l’avenir n’a jamais été franchement très bonne. Ensuite, parce que je pense qu’il y a énormément de choses qu’on sous-estime dans le travail et du travail qu’on va considérer ou déconsidérer et non pas dire « ah, c’est du travail de base », comme nettoyer par terre, par exemple, eh bien si on regarde le détail de en quoi ça consiste nettoyer par terre, on va s’apercevoir qu’il y a énormément de tâches.

Simon : Sur le sol ?

[rires]

Luc : Non, mais qui nécessitent d’avoir un sens critique et de s’adapter aux circonstances, à ce genre de choses. Il y a un autre phénomène par rapport à cette grande déclaration puisqu’en gros Macron a dit : « On va mettre un milliard sur la table tous les ans ».

Manu : Un milliard et demi d’euros.

Luc : Oh la vache ! Oui, mais on n’est pas à un 500 millions près !

Simon : Soit un dixième du budget de la Chine ou des États-Unis sur le sujet !

Manu : Oui, mais nous on est plus brillants donc avec moins d’argent on fera mieux ! Tu vois !

Simon : En tout cas en nous flattant, espérons que ça marche !

Manu : C’est l’idée.

Simon : Ça sauvera la recherche.

Luc : Est-ce qu’il a parlé de coopération européenne ?

Manu : Pas encore, mais peut-être que quand il va rencontrer Merkel prochainement, ça va sortir.

Luc : Ça aurait du sens. L’autre truc c’est qu’il y a eu des mouvements et des retournements de veste sur la question des données personnelles, je crois.

Simon : Tout à fait ! Sujet assez cher à La Quadrature du Net et on constate qu’avec la fin de l’élaboration du règlement européen sur la protection des données personnelles…

Manu : RGPD.

Simon : Tout à fait. La position exprimée par le pouvoir politique était de sacraliser les données personnelles, on parlait de vie privée, on est dans du post-Snowden, on fait une distinction entre le business d’un côté et la vie, les droits fondamentaux.

Manu : Un peu comme un organe qu’on ne pourrait pas vendre, en France c’est interdit, et il y a une sorte de sacralisation de ce qu’on peut faire avec.

Simon : Exactement.

Mag : Ça c’était avant !

Simon : On a eu un discours de monsieur Mahjoubi qui nous expliquait que les données personnelles…

Luc : Secrétaire d’État au numérique.

Simon : Les données personnelles ne sont pas des marchandises, ne doivent pas avoir de valeur marchande. Et puis, rapport de monsieur Villani, eh bien finalement les données personnelles, s’il y a le consentement des utilisateurs, pourquoi pas ! » Ce que nous dit monsieur Villani c’est que pour faire de l’apprentissage, pour faire quelque chose de plus fin qu’avant avec les vieux algorithmes, il va falloir que les données personnelles coulent à flots. Et donc, le gouvernement s’oriente là-dessus progressivement et ça, d’un coup, ça hérisse des poils à La Quadrature.

Manu : Ça fait tâche, au sol.

Luc : Effectivement. L’argument qui dit que c’est pour faire de la recherche il est valide, mais Manu, toi tu penses qu’on pourrait anonymiser.

Manu : On peut essayer d’anonymiser. Il faut garder à l’esprit que même sans anonymiser les données, il y a déjà des tas d’erreurs, de faux positifs, de faux négatifs, et que, dans l’état actuel des choses, les algorithmes sont très mauvais et qu’on n’arrive jamais à bien sortir des informations.

Simon : Avec les vraies données et en open bar, ils n’y arrivent déjà pas !

Manu : Exactement. Donc en anonymisant un peu, en rajoutant du sable dans le mécanisme, normalement on doit pouvoir casser un petit peu la manipulation des individus.

Luc : L’affaire dont on a parlé la semaine dernière nous laisse quand même entendre qu’on arrive à faire des choses.

Manu : On arrive des choses, mais en masse.

Luc : Avec Cambridge Analytica. C’est avait l’air quand même efficace quoi !

Manu : Exactement. Les élections, le Brexit, l'élection de Trump, il y a de la manipulation en place. J’ai peur que ça on ne l’évite pas et qu’il faille se battre là-dessus et en parler régulièrement, éduquer les gens. Mais anonymiser ça n’empêche pas d’essayer de le faire.

Mag : Comment on va savoir si les gens sont d’accord pour donner leurs informations. Est-ce que c’est comme d’habitude les conditions générales de vente que personne ne le lit et on coche pour utiliser les services.

Luc : Bien sûr ! Eh bien, il faut les lire. Tu dis que tu les as lues quand tu as coché la case, tu as dit : « J’ai bien lu les machins ».

Nico : Avec le RGPD tu seras quand même censé avoir la demande de consentement, mais c’est vrai que ça risque d’être un sacré merdier et on voit mal chaque boîte demander 100 000 consentements pour toutes les utilisations qu’ils vont en faire derrière.

Luc : On peut imaginer que mettre la main sur les données c’est aussi pour faire du business avec, que ce soit l’objectif derrière, et que le RGPD puisse être un moyen pour casser les pattes des GAFAM ; qu’on peut financer cette recherche-là en leur faisant payer leurs impôts, parce qu'il y a quand même plein de pognon qui nous échappe et que, du coup, comme on a 15 ans de retard sur le sujet, on puisse, avec notre dixième de budget…

Simon : Ce règlement européen, je ne sais pas si vous en avez déjà parlé, mais il aura comme effet, notamment, que les entreprises aient à obtenir le consentement au préalable de leurs utilisateurs pour les usages qui seront faits de leurs données. Alors ça paraît pas grand-chose, ça a l’air d’être une politesse élémentaire, mais ce qui change de fondamental avec cette approche c’est qu’elles auront besoin de savoir ce qu’elles vont en faire avant de collecter des données.

Simon : Et ce n’est pas simple !

Nico : Surtout aujourd’hui c’est un peu l’inverse. Aujourd’hui elles collectent tout en espérant faire des traitements intelligents derrière. Là non, il faudra d’abord qu’elles disent ce qu’elles veulent en faire et après, seulement, elles auront le droit de collecter.

Luc : Cette annonce fracassante nous laisse, en tout cas, nous laisse supposer qu’on va bouffer de l’IA dans les mois à venir et c’est un sujet un peu plus complexe que ce qu’ils veulent bien nous dire.

Simon : Et qu’on va vouloir dévaloriser les données personnelles, qu’on va essayer de nous expliquer que ça se vend comme un steak et qu’on pourra forcer les gens à les vendre.

Luc : Très bien. Simon, merci beaucoup. Merci à vous tous.

Manu : À la semaine prochaine.

Mag : Salut.

Nico : Bonne semaine à tous.