François Pellegrini

Titre : Éthique et la révolution numérique
Intervenant : François Pellegrini - Professeur des universités
Lieu : Séminaire scientifique avec un regard boudhiste - Technologies, éthique, cognition - Université de Bordeaux
Date : Novembre 2016
Durée : 25 min 07
Visualiser l'intervention
Diaporama
Licence de la transcription : Verbatim

Transcription

Merci beaucoup pour l’invitation. Je précise, vis-à-vis de ma dernière diapo, que j’avais réalisé cette présentation avant d’avoir toutes les informations que nous avons eues ce matin. Ce sera des raccourcis pour la suite.

Effectivement, si on considère la question des libertés à l’ère numérique, définissons d’abord ce qu’est la liberté. La liberté, on peut la définir comme l’aptitude des individus à exercer leur volonté, avec une formalisation juridique importante qui est l’« autonomie de la volonté ». Nous sommes tous responsables de nos actes, en relation avec les autres. Et donc cette liberté a été reconnue et formalisée au sein de la société par la garantie d’un ensemble de libertés individuelles et collectives – liberté de circulation, liberté de parole, liberté de culte, d’association, de la presse – et ces libertés s’opposent aux libertés des autres, ce qui fait qu’effectivement il s’agit de trouver un équilibre entre les différents droits des personnes et leurs obligations.

Donc, effectivement, ces libertés sont parfois traduites en droits, avec le fameux droit à la vie privée qui, je le rappelle, est extrêmement récent : il ne date que de 1948. Parce que avant, les sociétés humaines étaient tellement petites que tout le monde savait tout sur le tout le monde, et la notion finalement d’anonymat n’est arrivée qu’avec l’arrivée des métropoles, des mégalopoles et aussi ces fameux travailleurs migrants qui, dès l’époque de Napoléon III, étaient suivis par des livrets, les livrets de migrants comme les livrets de nomades, de gitans, de façon à contrôler ces populations éminemment dangereuses pour la stabilité des sociétés ancrées sur elles-mêmes.

Et donc, pour exercer l’autonomie de sa volonté, il faut d’abord l’absence de contrainte à agir : si on est en prison on n’est pas libre ; si chaque fois qu’on émet une opinion dissidente on se fait tabasser, eh bien, effectivement, on n’est pas libre. Mais la pire dictature est celle qu’on ne connaît pas et donc, pour pouvoir exercer pleinement sa liberté, il faut avoir une information qui soit préalable, suffisante et loyale, qui nous permette de prendre nos décisions de façon éclairée. Et ça, c’est le problème que les économistes aussi ont théorisé sous la forme de l’asymétrie de l’information et, en fait, resymétriser l’accès à l’information, c’est le principe qui sous-tend de nombreux droits et libertés tels que la liberté d’expression, la liberté de la presse, le droit à la communication des documents administratifs, des pièces de procédure pour le droit à la défense, la question des données personnelles. Et clairement, on voit que finalement ces droits, et l’interaction dans les sociétés humaines, sont liés à la bonne circulation de l’information.

En l’occurrence, les espaces numériques ont été une révolution ; on parle à bon droit de révolution numérique parce que, effectivement, l’ouverture de ces espaces numériques a permis d’exercer ces libertés d’une façon plus importante pour certaines personnes. Je ramène ce cartoon de Peter Steiner en 93 qui disait : « On the Internet, nobody knows you're a dog ». C’est-à-dire qu’effectivement, derrière son écran, quelles que soient notre apparence et notre entité physique, on peut avoir des identités différentes et faire des choses qu’on ne pourrait pas.

À l’inverse, la délégation de processus intellectuel à des automatismes peut restreindre leur exercice, avec une restriction du choix effectif ou apparent. Lawrence Lessig disait : « Code is Law », c’est-à-dire qu’effectivement, la façon dont on code les applicatifs nous permet, ou non, de faire certaines choses. Avant, si je suis un maniaque de la numérologie et que je ne supporte pas d’être dans une place impaire, je pouvais très bien demander au guichet SNCF à avoir une place paire. Maintenant, sur l’appli, j’ai « sens de la marche », « carré », mais je n’ai pas « paire ou impaire ». Donc la personne qui a codé cette application a restreint effectivement mon choix, selon ses préjugés à elle, sur le fait qu’il n’était absolument pas nécessaire de pouvoir choisir si on voulait une place paire ou impaire.

Et donc effectivement, cette révolution numérique transforme profondément les rapports sociaux et les moyens d’exercice des libertés, avec une explosion du volume d’informations accessibles et qui, de fait, exacerbe le risque d’asymétrie au profit de ceux qui sont capables de les collecter et de les traiter. Et je ramène à ce retour sur le cartoon de Steiner avec, en fait, la version maintenant moderne où on est à la NSA et on voit deux agents de la NSA qui discutent et qui disent : « Notre analyse des métadonnées montre que c’est un labrador brun et, en fait, il vit avec un terrier noir et blanc à pois et on suppose qu’ils ont des relations entre eux. »

[Rires]

Et donc, effectivement, il y a un nouvel espace et, dans ce nouvel espace, le législateur a eu, naturellement, à étendre son pouvoir de régulation, par exemple pour qualifier pénalement l’intrusion dans les systèmes de traitement automatisés de données, parce que la loi pénale est d’interprétation stricte. Il y a des lois contre le vol, mais les données ça ne se vole pas. Il n’y a pas de vol de données parce que voler c’est prendre, c’est soustraire un bien matériel ; or la donnée, quand on la copie, on ne la soustrait pas, on la multiplie ! Donc effectivement il fallait des qualifications juridiques adaptées. Il n’y a pas d’intrusion de domicile et donc il fallait définir des nouveaux concepts juridiques pour permettre de réguler cet aspect de la société.

Et donc, effectivement, définir le point d’équilibre de la loi entre ces différentes libertés nécessite la compréhension des principes de l’informatique, la science du traitement efficace de l’information par le législateur – c’est déjà une victoire si on peut l’atteindre – mais aussi la société dans son sens le plus large afin que le débat soit éclairé et que les personnes puissent adapter leur comportement à une bonne information de la réalité de l’état du monde et des pratiques.

Et donc, c’est le sens de notre présence ici, je pense.

Clairement, la question du rapport entre numérique et libertés va concerner l’ensemble de la société et nous sommes tous responsables, à la fois à titre collectif, c’est-à-dire la prise de position d’instances représentatives de la communauté dans le débat public (je suis membre de la Commission nationale informatique et libertés et, en tant que corps constitué, la CNIL prend position dans le débat public ; elle l’a fait récemment au sujet d’une affaire à laquelle je vous conseille vivement de vous intéresser sur la création d’un fichier biométrique de 60 millions de personnes – j’en reparlerai éventuellement pendant le temps du débat, je n’ai pas le temps ici), la question de l’introspection de la société sur elle-même, les fameux comités d’éthique ; mais aussi de responsabilités individuelles et comme ça a été cité, Snowden pour moi n’est pas un lanceur d’alerte : c’est un dissident. C’est quelqu’un qui effectivement, face à un comportement systémique de l’État dans lequel il vivait, a décidé de s’élever contre ce comportement-là, à la manière dont les Soljenitsyne et autres, dans les années 1970, ont critiqué le fonctionnement du bloc soviétique. Notons que Edward Snowden était un administrateur système : c’était quelqu’un qui était dans la soute, ce n’était pas quelqu’un qui avait une fonction opérationnelle dans la NSA. C’était la femme de ménage qui nettoyait les poubelles et donc de fait – d’ailleurs, rappelez-vous que dans les organisations, la femme de ménage est la personne la plus importante : elle a les clefs de tout – il a pu partir avec tous les documents qui sont maintenant en cours d’exploitation ; ils ne sont pas tous exploités.

Effectivement, ça pose la question, maintenant que nous vivons dans ce monde numérique, de la loyauté des dispositifs vis-à-vis de leurs usagers. De plus en plus de nos comportements sont orientés par des algorithmes dits de recommandation et donc la vraie question c’est : à qui ces algorithmes sont-ils loyaux ? Et ça donne la possibilité de censure effective ou apparente. J’ai juste mis une copie d'écran de la page Amazon qui correspond à mon livre Droit des logiciels, et vous avez dans les recommandations quatre bouquins et un paquet de couches. Je n’en tirerai aucune conclusion [Rires]. Cela montre qu’il était prévu cinq places pour faire des recommandations. Parmi les cinq, eh bien on ne m’a pas proposé un livre de droit ou d’informatique, on m’a proposé un paquet de couches. Ce qui montre qu’à un moment donné quelqu’un avait dû acheter mon bouquin et un paquet de couches et que l’algorithme en a déduit, plus exactement le codeur en a déduit que si quelqu’un était intéressé par acheter mon bouquin et un paquet de couches, ça pouvait intéresser d’autres personnes.

Et donc, effectivement, exercer notre liberté nous ramène à la question effective de savoir si on peut déterminer si un dispositif est loyal ou non. Ça veut dire, finalement, accéder au code source de ce dispositif, ce qui, en général, est peu faisable, sauf dans le cadre des logiciels libres. Et je trouve que le mouvement du logiciel libre a des valeurs assez partagées avec ce qui a été exposé précédemment par le Lama Puntso1.

Ça pose aussi le problème des verrous numériques, des autres barrières effectives à l’accès aux dispositifs, et de la liberté d’usage d’un bien avec, effectivement, les marchés captifs qui sont créés. Quand on achète un appareil de la marque Apple, on ne peut aller que dans le store de cette marque et cette marque contrôle les applications qui peuvent être accessibles ou pas. Quand on achète un appareil de cette marque, on est capté et on fait partie d’un marché captif dans lequel on censure les applications qu’on peut utiliser avec cet équipement. Il faut le savoir.

Évidemment dans la question de la loyauté des algorithmes se pose - ça a été un débat récurent et qui n’est pas encore tranché ; là aussi, il faut être vigilant - il y a un mouvement qui dit : « Ah oui, c’est affreux, les terroristes et les pédonazis utilisent le chiffrement pour échanger sur leurs actes infâmes. Il faut absolument mettre dans tous les logiciels qui sont accessibles sur le marché des portes dérobées qui vont permettre aux forces de sécurité de pouvoir effectivement vérifier si les choses qui sont dites sont bonnes ou pas et pouvoir matérialiser l’existence de preuves ». Là on est pleinement dans le conflit entre liberté et sécurité, avec un phase parfaitement orwellienne du type : « La sécurité est la première des libertés ». Je vous ramène à votre moteur de recherche préféré pour savoir qui l’a prononcée récemment. Vous allez voir, c’est intéressant ! Et donc, effectivement, il y a l’enjeu de l’affaiblissement global de la sécurité des citoyens, parce que si cette porte dérobée qui est prétendument uniquement entre les mains des forces de sécurité est dérobée par des tiers ou alors si, dans le temps long, l’État devient un État criminel comme c’est déjà arrivé par le passé, les risques pour les citoyens deviennent absolument terrifiants.

Cela suppose aussi le contrôle par les citoyens des traitements qui les concernent. Il y a eu dans la loi République numérique une avancée intéressante, qui fait que le code source des logiciels de l’administration est un document administratif qui est librement communicable. Un certain nombre d’administrations rechignent, mais connaître le logiciel qui fait l’affectation post-bac, par exemple, ça peut être intéressant de savoir, effectivement, comment, quand on rentre de l’input dans le logiciel, on pourra être plus ou moins privilégié pour être affecté dans tel ou tel établissement. Puisqu’il y a une décision qui est prise à l’endroit des personnes, autant savoir comment elle est prise.

Bien sûr il y a les logiciels. Il y a la question du réseau aussi puisque, effectivement, les algorithmes qui sont mis en œuvre pour gérer les réseaux définissent aussi les modalités d’accès à ces ressources et donc il y a une grande question qui est débattue actuellement, c’est celle de la neutralité de l’Internet : faire en sorte que les communications de tous soient traitées de façon équitable. Ce qui est finalement plus fort que la liberté d’expression. Parce que la liberté d’expression, c’est : « Cause toujours ». La neutralité des réseaux, c’est la liberté d’être entendu et c’est finalement, pour moi, plus opératoire en termes d’efficacité de la diffusion des opinions. Et donc, bien sûr, la question de la gouvernance de l’Internet : qui contrôle Internet, sachant que qui contrôle les tuyaux contrôle le contenu.

Ensuite, avec justement l’augmentation de la puissance des calculateurs, on se trouve maintenant de plus en plus placé vers des décisions qui sont prises par des systèmes autonomes. Vous avez le cas de la voiture autonome qui anime beaucoup la sphère médiatique, mais, de façon un peu plus cachée, il y a la question des robots de combat. Et donc, effectivement, les personnes qui mettent en œuvre ces dispositifs n’ont qu’un contrôle partiel sur leur fonctionnement et donc se posent à la fois des questions juridiques : « Quand la voiture décide de foncer dans un mur, qui est responsable ? », mais finalement aussi, à travers les algorithmes qui sont mis en œuvre dans ces véhicules, on voit qu’on a un codage très fort de la norme sociale, puisque la personne qui code l'algorithme décide de qui meurt et qui survit. Quand tout d’un coup un enfant traverse la route en courant au passage piéton alors que vous êtes en train de rouler avec votre voiture autonome, que fait la voiture ? Est-ce qu’elle écrase la personne pour vous préserver en essayant de freiner le plus possible, ou est-ce qu’elle vous propulse dans un mur en essayant de sauver la vie de la personne ? Qu’est-ce qui se passe s’il y a deux enfants ? Un enfant et une mamie ? Une mamie toute seule ? La vraie question, effectivement, c’est celle du codage qui est en œuvre et, finalement aussi, de l’absence de liberté que nous avons, nous, par rapport au comportement que nous aurions eu. C’est-à-dire, est-ce que nous aurions choisi nous de nous sacrifier ou eu un comportement moins altruiste en essayant de nous préserver pour des raisons qui nous sont personnelles. Et donc, la question par rapport à ça, c’est : est-ce que les personnes pourront avoir la possibilité de modifier le comportement de la voiture entre un comportement plus altruiste ou plus égoïste, puisque, finalement, sinon c’est déléguer une partie de notre liberté à ces automatismes ?

Dès le moment où on crée de l’information se pose la question de la maîtrise du patrimoine informationnel et donc c’est la liberté de gérer les données dont on est le responsable. Je n’ai pas dit le propriétaire. Là encore, il n’y a pas de propriété sur les biens immatériels. Et se pose aussi, j’en ai parlé, la question de la liberté d’usage de la cryptographie et du choix de ses propres méthodes sachant que, effectivement, on a un droit à la non incrimination, le droit de garder le silence ; et le fait qu’il y ait des portes dérobées dans la cryptographie, c’est une possibilité d’avoir accès à des informations que la personne n’aurait pas souhaité révéler. Ça pose des questions juridiques assez tendues ; la question, aussi, de la liberté de transférer les données dont on est le responsable. Quand on a mis tous ses contenus sur une certaine plate-forme de réseau social et qu’on dit : « Eh bien, finalement, je la quitte parce que ses conditions ne me plaisent pas », il faut qu’on ait le moyen effectif de reprendre toutes ces œuvres dont est l’auteur et toutes ces informations dont on est le responsable pour les placer sur une autre plate-forme. Et donc, c’est le droit à la portabilité des données qui commence à être abordé à la fois par le Règlement européen sur la protection des données et par la loi République numérique, mais à chaque fois avec des trous dans la raquette, que je ne détaillerai pas ici, mais on peut y revenir.

Donc ça nous amène à la protection numérique des données personnelles puisque, avant, il y avait du fichage ; maintenant, avec le croisement, ce n’est plus du fichage, c’est vraiment la possibilité de déterminer des corpus d’informations très étendus sur les personnes. Et donc, effectivement, il y a eu un aller-retour, en fait, suite à la Deuxième Guerre mondiale et au fichage des populations par les régimes totalitaires, il y a eu la naissance, un peu tardivement, d’organismes de type « Informatique et libertés » parce que, à l’époque du développement initial de l’informatique, seuls les États avaient la capacité de collecter des masses de données. Et puis finalement on a vu, dans les années 90/2000, un glissement de la menace vers le secteur privé, où ces fameux GAFA se sont vus en situation d’avoir plus de puissance de traitement que certains États – la majorité d’entre eux, même – dans le but de collecter de l’information sur les personnes. Et donc on s’est focalisés sur le secteur privé, alors qu’en fait les États ne sont pas stupides, et c’est ce que Snowden a révélé : dès le moment où le secteur privé a une masse de données, est situé sur le territoire d’un État, les services de cet État vont simplement brancher la prise et le tuyau sur les entrepôts de données du privé pour pouvoir se servir sans avoir eu à payer.

Et donc effectivement, on voit que dans la collecte des données, il faut considérer de façon équivalente la menace des États et la menace des acteurs privés.

Sachant qu’effectivement, il y a une extension du périmètre de ce qu’on entend par données personnelles. Au début, quand on était sur carte perforée, c’était des informations nominatives, c’était le nom de la personne, son adresse et puis sa religion, par exemple, avec l’exemple malheureux des Pays-Bas dans les années 40. Et ensuite, on s’est rendu compte qu’il y avait des informations qui n’étaient pas nominatives mais qui pouvaient permettre de renseigner sur les personnes : le numéro de téléphone, la plaque d’immatriculation ; ça permet de savoir où était la personne qui possédait la voiture.

Et puis, finalement, on étend avec la notion de données personnelles. Pour prendre un exemple, vous avez tous sur vos ordiphones des accéléromètres qui permettent de jouer, de faire des choses ; mais cet accéléromètre est tellement sensible que, quand vous marchez, il enregistre le rythme de vos pas et votre démarche est, en fait, une information plus identifiante que vos empreintes digitales. Donc effectivement, donner à une application le droit d’accéder à votre accéléromètre c’est permettre, s’il y a un bug ou une faille de sécurité dans l’application, à quelqu’un, éventuellement, d’identifier une personne par sa démarche en enregistrant les accéléromètres de tous les gens qui marchent à un instant donné.

De la même façon, l’accéléromètre, comme il capte les vibrations de la voix, permet d’entendre les conversations dans une pièce même si le micro est éteint. Le détournement de finalité de la technologie et des données personnelles peut être, en la matière, assez illimité vis-à-vis de la créativité des gens qui travaillent sur le sujet. Et il y en a beaucoup !

Donc effectivement, la réponse à un problème de société n’est pas une réponse technologique. L’architecture aide, j’y viendrai, mais clairement, puisque l’organisation sociale est régie par le droit, c’est le droit qui doit poser les limites. Effectivement, il y a un certain nombre de principes qui sont en train d’être posés, avec en anglais le terme de Privacy by Design qui veut dire « protection intégrée de la vie privée dès la conception », ce qui veut dire qu’il faut concevoir des systèmes qui soient résilients au risque de détournement.

Et c’est le cas avec le fichier TES2 dont il est question aujourd’hui dans la presse, où le ministère de l’Intérieur choisit une structure totalement centralisée des informations biométriques, alors que ce qui est recommandé par un certain nombre d’institutions, en particulier la CNIL, c’est une architecture décentralisée dans laquelle les données personnelles sont à la main de la personne dans la puce de son support, lui donnant la possibilité de le détruire s’il le souhaite et de se débarrasser de ses données. Alors qu’effectivement, quand vous avez une base de données centrale, il suffit qu’un méchant arrive au pouvoir et l’exploitation est immédiate.

Donc clairement, la question de l’anonymat et de la ré-identification est aussi un enjeu à travers les algorithmes d’identification de ce qu’on appelle les signaux faibles, ce qui relève un petit peu du fantasme ; il faut faire attention, il faut faire la part entre la science et la mode, mais je vous ai montré que la science pouvait aller très loin, plus que certains vieux livres tels que 1984 qui ont malheureusement été pris par certains comme des modes d’emploi ! [Rires]

Et donc il faut pouvoir garantir le respect de la vie privée des citoyens, la nécessité de ne pas pouvoir être ré-identifié, et ça pose la question de l’open data parce que, effectivement, l’open data, c’est ouvrir des masses de données et, par corrélation entre des masses de données ouvertes, on peut parfois ré-identifier les personnes et donc ça fait peser une grande responsabilité sur les personnes qui ouvrent les stocks de données.

La ré-idenification, c’est un problème très ancien. Il y a une loi de 1951 qui a fondé l’Insee, pour dire : l’Insee a le droit de donner des statistiques, mais ces statistiques ne doivent pas être identifiantes, et donc il y a un comité du secret statistique ; il y a des gens qui réfléchissent depuis plus de soixante ans sur le sujet et avec, effectivement, des menaces qui sont réelles sur la ré-identification des personnes dans des masses de données supposées anonymes, qui sont, en fait, simplement pseudonymes ; j’en parlerai éventuellement lors du débat.

Donc ça pose la question de l’identité numérique ; ça pose la question du statut des outils qui permettent l’anonymat dans l’espace numérique ; les outils de communication anonyme, TorLe réseau Tor, la cryptographie, j’y reviens, et puis la question des transactions financières. Dans le monde physique vous pouvez, en payant en argent liquide, faire en sorte que personne ne sache ce que vous achetez. Dans le monde numérique, comme on raisonne avec des systèmes bancaires par carte, eh bien votre banquier sait toujours tout ce que vous faites. Sauf à utiliser des systèmes monétaires alternatifs et c’est la question des fameuses cryptomonnaies, le Bitcoin et les autres, qui posent, justement, la question de la décentralisation aussi d’ailleurs de la confiance, par rapport à des points de centralisation, qui était un peu la question posée initialement.

Donc le statut des lanceurs d’alerte et dissidents. J’y reviens rapidement puisque la question a été posée ; ça déborde du strict cadre du numérique, mais clairement, face au volume d’informations, on ne peut pas simplement écrire une lettre à un journaliste, il faut pouvoir déposer des masses de données, d’où Wikileaks, d’où la nécessité d’avoir ces entrepôts qui permettent ensuite une exploitation. Et même pour les journalistes d’ailleurs, un journaliste maintenant, quand il a 4 gigaoctets de données à traiter, il faut qu’il ait des outils d’analyse qui soient également performants pour retrouver l’information exploitable dans l’intérêt de l’information du citoyen.

Donc effectivement cryptographie forte et loyale, outils de communication anonymes et résistants à la ré-identification. Je ne reviens pas là-dessus.

J’en terminerai, je vais conclure. On le voit, la révolution numérique ne doit pas permettre l’affaiblissement des droits fondamentaux qui existent sous prétexte que cela est possible. Et là on rejoint la question de l’obligation que vous citiez, l’obligation de faire : puisque c’est possible de tracer tous les gens, faisons-le ! Eh bien non ! Effectivement, ça pose la question de la surveillance généralisée des échanges numériques et numérisés et donc du point d’équilibre dans la loi. Accepte-t-on à un moment de ne pas savoir, parce que sinon les dangers seraient grands.

Je prends l’exemple du fichier TES. Pour le moment le ministère de l’Intérieur nous dit : « Mais pour l’instant ça va ne servir qu’à l’authentification des gens », sauf qu’à un moment donné il suffira qu’il y ait une affaire particulièrement atroce dans laquelle on n’ait que l’empreinte digitale de l’auteur pour dire : « Mais on a une base de données avec les empreintes digitales, cherchons le coupable ! » Et donc, faire voler en éclats sous l’émotion populaire la finalité initiale qui était simplement l’authentification, pour se retrouver avec une base d’identification de l’ensemble de la population.

Il y a eu un livre qui était très intéressant, dont j’ai oublié le titre [Histoire d'un Allemand, de Sebastian Haffner, NdA], qui raconte comment en dix ans, avec l’arrivée du régime nazi, tous les verrous juridiques qui avaient été posés, justement pour garantir les libertés individuelles, ont sauté les uns après les autres. Et clairement, ça pose la vraie question de l’architecture du système. C’est-à-dire que si on a une architecture par nature décentralisée de l’information, même si quelqu’un de méchant sera au pouvoir, eh bien il ne pourra pas utiliser l’information centralisée parce qu’elle n’existe pas. Et ça, c’est très important.

Il y a aussi la capacité, d’une certaine façon, à pouvoir faire des faux-papiers. Un certain nombre de personnes – vous parliez aussi des chaînes de causalité – sont ici parce que leurs grands-parents ont pu faire des faux papiers. Le « tout sécuritaire » et le « tout authentifié » est parfois aussi une menace structurelle pour l’écosystème que représente la société humaine dans son ensemble.

Et donc effectivement, quand on pense à la révolution numérique, quand on pense au travail intellectuel qu’on doit faire pour la penser, eh bien ça doit nous inciter à étendre la préservation des droits fondamentaux au monde numérique, de ces droits qui sont garantis dans le monde physique. Je parlais de la neutralité d’Internet. La neutralité d’Internet, c’est la liberté d’expression, c’est la liberté d’être entendu, c’est un droit fondamental. Il ne devrait pas y avoir de question pour les parlementaires sur : « Est-ce que oui ou non on garantit la neutralité d’Internet ? » C’est une évidence, normalement, quand on fait le lien avec les droits fondamentaux. Et pour ça il faut comprendre le lien entre Internet et les droits fondamentaux.

Et donc la fameuse diapo dont je vous parlais : quel est nous notre rôle de scientifiques et de chercheurs ? C’est dans nos missions : c'est d’éclairer la nation sur les enjeux, les bénéfices et les risques de nos recherches. C’est ma présence ici. Et revenir aux fondamentaux : le doute, parce que le scientifique doit douter. Effectivement, un terme qui a été beaucoup oublié : la bienveillance. Je crois que nous sommes responsables de nos actes également et que, à partir de là, nous sommes tous placés en permanence devant nos responsabilités et nous avons une obligation de bienveillance.

Merci.

[Applaudissements]