Guillaume Champeau

Titre : Quelle éthique pour les développeurs ?
Intervenant : Guillaume Champeau
Lieu : MiXiT - Lyon
Date : Avril 2017
Durée : 27 min 32
Visualiser la vidéo
Licence : Verbatim

Description

Les développeurs ne sont pas des machines qui programment d'autres machines, mais bien des hommes et des femmes doués de conscience dont les lignes de code qu'ils produisent peuvent avoir un impact important sur la société. Quelles sont les règles en matière d'éthique pour les développeurs et les startupers ? L'éthique est-elle un obstacle à la croissance d'une entreprise ? Cette keynote apportera des éléments de réflexion en s'intéressant, en particulier, au traitement des données personnelles des utilisateurs.

Transcription

Bonjour à tous. Je suis très heureux d’être ici et je voudrais d’abord remercier les organisateurs de cet événement. C’est pour moi la première fois que je vais m’exprimer devant des développeurs, avec être une conférence qui, normalement, j’imagine, n’est pas forcément la plus agréable à priori pour vous et en plus, à l’heure de la digestion : c’est-à-dire qu’on va parler de droit.

Juste pour vous donner deux mots sur moi : j’ai fondé il y a une quinzaine d’années un site que peut-être certains d’entre vous connaissent qui s’appelle Numerama1, dont j’ai été rédacteur en chef jusqu’à assez récemment. J’ai une formation de juriste, c’est pour ça que je vais un peu vous parler de droit et essayer – si c’est trop chiant n’hésitez pas, vous partez, vous me faites des grands signes, je ne serai pas vexé – mais on va essayer que ce ne soit pas trop chiant quand même. J’ai une spécialisation en droit international des droits de l’homme et donc je me suis toujours intéressé, avec Numerama, à essayer de comprendre l’impact que pouvaient avoir les technologies et les choix qu’on fait dans nos technologies sur la société en général et sur les droits des utilisateurs.

Et c’est ce qui m’a amené, il y a un peu moins de six mois, à rejoindre Qwant2. Je m’occupe chez Qwant de l’éthique et des relations publiques.

Donc aujourd’hui, je suis là pour vous parler de ce que ça peut être l’éthique chez des développeurs. Je ne sais pas si, parmi vous, vous êtes nombreux à vous être déjà posé la question de l’impact éthique que ça pouvait avoir vos développements de logiciels ou d’applications.

Mais d’abord qu’est-ce que c’est que l’éthique ? Ça vient d’un mot latin ou grec, donc ethica en latin, êthikós en grec ; c’est la morale. Et donc, avoir une éthique, c’est simplement adopter un comportement moral vis-à-vis de soi-même, mais surtout vis-à-vis des tiers. Essayer de faire en sorte que nos agissements dans la société fassent le moins de mal possible à ceux qui nous entourent.

Pour des développeurs, qu’est-ce que ça implique ? Tous les développeurs ont un peu une vision différente de ce que ça peut être une éthique dans le développement des logiciels, et on se pose beaucoup de questions. Par exemple, est-ce qu’on peut sortir un logiciel et à quel moment on doit le sortir sans l’avoir forcément testé dans les meilleures conditions possibles, sur toutes les configurations possibles ? Et s’assurer, c’est moins vrai sur le Web mais c’était beaucoup vrai sur les applications desktop, que l’application qu’on lance ne va pas écraser, par exemple, le contenu du disque dur de l’utilisateur ? Ou quand on lance une voiture autonome, s’assurer que ça ne va pas aller écraser un chien ou un enfant ? C’est quand même mieux !

Donc il y a des choses comme ça, des réflexions qu’il faut avoir quand on lance des logiciels.

Ça peut être aussi se poser des questions : est-ce que j’ai le droit de faire un logiciel, une application pour faire du mal ? À priori, tout le monde dit non. Mais par exemple, en matière de cyberdéfense, est-ce que j’ai le droit de répliquer en envoyant des virus, des malwares ou des choses qui permettent d’aller pirater le système ennemi et de faire de l’espionnage ? Ça peut être des réflexions en tant que développeur de se demander jusqu’où on peut aller quand on me demande ce genre de mission.

C’est à quel moment, quand je lance un logiciel ou une application, je peux m’arrêter de faire des mises à jour pour contribuer à faire que le logiciel fonctionne de mieux en mieux, corriger les bugs. Est-ce qu’il y a un moment où, dans mon éthique vis-à-vis de mes clients, je dois continuer à faire des mises à jour, est-ce qu’il y a un moment où je peux arrêter ?

Est-ce que je dois, ou pas, respecter les droits d’auteur ? J’imagine que dans la salle, il y en a qui se disent les droits d’auteur osef et d’autres : les droits d’auteur, il faut les respecter. Moi, si je fais des contributions et que les briques de code source que je fais, que je mets à disposition par exemple sur Github, et que d’autres les reprennent, je veux être crédité. C’est le respect des droits d’auteur.

Il y en a peut-être aussi qui sont un peu comme Richard Stallman pour qui un développeur éthique c’est forcément un développeur qui fait du logiciel libre. Il y en a d’autres qui vont se dire un logiciel propriétaire ce n’est pas un problème d’éthique. Etc. Je vais passer.

Ça peut être intéressant aussi de se dire, si vous faites de l’intelligence artificielle, est-ce que mes algorithmes sont neutres ? Est-ce que les datasets3 que j’utilise pour apprendre à mon intelligence artificielle, donc faire du machine learning, du deep learning, est-ce qu’ils sont biaisés, ou pas ? Parce que si vous utilisez des datasets biaisés, vous prenez le risque d’avoir du racisme ou du sexisme, par exemple, dans le résultat de vos algorithmes. Ce sont des questions qu’il faut intégrer de plus en plus.

Ça peut être l’autonomie des intelligences artificielles, là aussi sur la cyberdéfense. Vous savez que, de plus en plus, on est en train de militariser les avions, les drones, avec des mécanismes qui leur permettent d’être pilotés tout seuls et même de réagir en envoyant des missiles, de façon parfaitement autonome. Est-ce que c’est éthique ou pas ? Ce sont des questions que, peut-être dans la salle, certains seront amenés à se poser.

Donc il y a eu des tentatives d’encadrer, pour les développeurs, ce que ça pouvait être l’éthique ou pas. Je serais curieux de savoir qui, dans la salle, connaît le Code d’éthique et déontologique de l’ingénieur logiciel4. Et puisque ça s’adresse à des logiciels, forcément il y a une version, c’est-à-dire la version 5.2. Personne ne connaît dans la salle ? D’accord ! Donc c’est un document qui date de 99, qui, théoriquement, concerne tous les adhérents, tous les membres au moins, de l’IEEE [Institute of Electrical and Electronics Engineers], ou I du triple E, je ne sais pas comment il faut dire, qui sont 400 000 membres. Et c’est la charte éthique qui a été rédigée par l’IEEE et l’ACM [Association for Computing Machinery et qui, théoriquement, s’applique à tous les développeurs de logiciels en tant que norme d’enseignement et de pratique du génie logiciel.

Donc si vous êtes ingénieur ou si vous aspirez à devenir ingénieur, vous êtes censé respecter cette norme-là, qui contient huit principes. Je ne vais pas tous les énumérer, mais retenez le premier qui est, pour moi, le plus important. C’est : « Le public. Les ingénieurs logiciels doivent agir dans l’intérêt public en tout temps. » Et ça prime sur l’intérêt de votre employeur, ça prime sur vos propres intérêts, c’est l’intérêt de la société toute entière.

Je passe sur les autres qui sont, selon moi, moins intéressants, qui sont plus liés à la déontologie, donc vis-à-vis de votre employeur, vis-à-vis du produit lui-même ; le jugement que vous devez avoir en permanence sur les conséquences de vos applications ; la manière dont vos managers, ou si vous-même vous êtes manager, vous devez gérer vos équipes, vos projets ; la réputation de vos actions sur la profession des développeurs en général, d’ingénieur logiciel, comme on dit ; vos relations avec vos collègues et enfin, vous-même. Par exemple ici, en étant à MiXiT, vous respectez parfaitement la charte de déontologie puisqu’un bon développeur, un bon ingénieur logiciel, dans sa charte éthique, doit constamment se former et former les autres.

Et l’IEEE nous dit : « Ce sont des obligations qui sont fondées sur l’humanisme des ingénieurs logiciels – je passe et donc – ce sont des obligations pour quiconque se réclame du titre d’ingénieur logiciel ou qui aspire à le devenir. » Donc on nous dit : « C’est vraiment une obligation. » Si vous êtes un ingénieur ou que vous aspirez à le devenir, vous êtes censé respecter ces huit règles qui ont elles-mêmes des sous-règles après.

Sauf qu’en réalité, en droit, une obligation où il n’y a pas de sanction, ce n’est pas une obligation. Et c’est la grande différence avec plein d’autres professions comme les avocats, les médecins, les comptables, les pharmaciens, les architectes, qui ont des ordres professionnels pour accéder à ces professions : vous ne pouvez pas être avocat si vous n’avez pas prêté serment ; vous ne pouvez pas être pharmacien si vous n’avez pas prêté serment ; comptable, vous avez des chartes éthiques et vous avez des conseils de l’ordre qui s’assurent que la charte éthique que vous avez prêté serment de respecter, vous la respectez effectivement ; et si vous la violez, vous pouvez ne plus avoir le droit d’exercer le métier.

Je pense qu’à priori personne dans la salle ne souhaiterait que ce soit la même chose pour les développeurs. C’est-à-dire qu’on arrive un jour où, pour être développeur, il faut que vous ayez d’abord un diplôme d’ingénieur logiciel et que vous prêtiez serment, non pas sur la bible mais peut-être sur un code de l’IEEE ou de Syntec ou je ne sais pas, ou du Medef [Rires], qui vous dirait : « Vous devez respecter ces principes éthiques » ; avec le Medef ça devrait être assez cool. Voilà. Et sinon vous n’avez plus le droit de devenir développeur. Il faut juste se dire au tout départ, serment d’Hippocrate, ce n’était pas une obligation juridique pour les médecins. C’est devenu une obligation juridique quand il y a eu des débordements qui ont fait que certains se sont prétendus médecins et qu’ils ont fait mourir leurs patients. C’est la même chose pour les comptables qui ont accepté de signer des comptes qui étaient complètement truqués. Donc à chaque fois c’est venu d’accidents qui ont fait qu’à un moment donné on s’est dit il faut réguler les professions.

Développeur, ça fait je ne sais pas combien de décennies, peut-être cinq décennies, qu’il y a des développeurs ; ce n’est pas impossible que d’ici 50, 100 ans, s’il y a des accidents, type des voitures qui écrasent un chien ou un enfant, on en arrive à se dire pour être développeur il faut respecter des chartes éthiques. Et donc il faut qu’on ait, en tant que développeur, une conscience de ce qu’on fait et qu’on essaye plutôt, en évitant d’en arriver à une telle situation, soi-même adopter un comportement éthique pour en arriver à ce type de situation.

Et donc il y a un guide qui, pour moi, doit être fondamental dans toute profession, y compris en tant que développeur, c’est le respect des droits de l’homme. Je ne vais pas vous refaire tout l’historique, mais on avait les droits de l’homme à un niveau national, par exemple en France avec la Déclaration des droits de l’homme et du citoyen qui est née à la Révolution ; on avait aussi en Grande-Bretagne ; mais au niveau international, c’est quelque chose de vraiment très récent, qui est né après la Seconde guerre mondiale, quand ils se sont rendu compte qu’il y avait eu toutes ces atrocités, notamment commises par les nazis, certaines par les Russes, par les Japonais, etc. Là on s’est dit : les populations, à l’intérieur de leurs pays, ne sont pas à l’abri des atrocités qui peuvent être perpétrées. Et il faut qu’on donne des droits à chaque individu, des droits qui soient opposables aux États et qu’on ait des mécanismes qui permettent de s’assurer qu’au sein des États la souveraineté ne fait pas tout et qu’on peut intervenir.

On a aussi au niveau européen maintenant la Cour européenne des droits de l’Homme, ce genre de choses, qui s’assure du respect des droits. Et c’était le besoin, vraiment, de protéger les individus contre les États. C’est vraiment extrêmement récent dans l’histoire du droit international.

Et parmi ces droits, là où je vais, moi, beaucoup me concentrer, c’est le respect du droit à la vie privée. Je pense que parmi vos applications, très probablement aujourd’hui, vous êtes très nombreux à faire du traitement de données personnelles, donc vous êtes extrêmement concernés par ça. C’est : « Nul ne sera l’objet d’immixtions arbitraire dans sa vie privée. Toute personne a droit à la protection contre de telles immixtions ou de telles atteintes. » C’est ce qu’on appelle un droit fondamental, j’y reviendrai, c’est-à-dire qu’à partir de ce droit vous avez d’autres libertés qui en dépendent. Et on le retrouve, et c’est à mon avis très intéressant, au tout début du code d’éthique et de déontologie, qu’absolument personne d’entre vous ne connaît. Et c’est le troisième sous-point du premier principe qui est donc celui que je rappelais tout à l’heure où je vous disais s’il y en avait un à retenir c’est celui-là, où vous avez l’obligation de penser à l’intérêt public en tout temps, le point 1.03 c’est : « Vous devez approuver un logiciel seulement s’ils – s’ils, ce sont les ingénieurs logiciels – sont convaincus que celui-ci ne favorise aucune ingérence dans la vie privée. »

Tout à l’heure je vous disais ça date de 99. En 99, ça faisait un an que Google existait ; Facebook n’existait pas. Le Web, globalement, c’était des sites web concrets, chacun un peu chez soi, il n’y avait pas forcément de collecte de données personnelles et de traitements et de réseaux sociaux comme on en fait aujourd’hui. Je ne suis pas certain qu’aujourd’hui il y en ait beaucoup qui puissent dire qu’ils ne favorisent aucune ingérence dans la vie privée de leurs utilisateurs à travers les services qu’ils développent. Et pourtant vous êtes 400nbs&;000, d’après l’IEEE, à respecter cette promesse-là.

La vie privée. Il faut comprendre, je disais c’est un droit fondamental à partir duquel naissent d’autres droits et, en particulier, il faut comprendre, il n’y a pas de liberté d’expression possible sans vie privée

Là, la manière dont je vous parle, la manière dont je me comporte, n’est pas du tout la même, pas seulement parce que je suis stressé, mais parce qu’on est beaucoup ici. Vous me regardez, donc j’adopte un comportement public qui n’est pas du tout le même que celui que j’ai chez moi quand je suis tout seul ; qui n’est plus non plus exactement le même que celui quand je suis chez moi où il y a ma femme ; qui n’est pas non plus le même que celui où c’est un cercle d’amis. Donc on agit tous en fonction des regards qui sont portés sur nous ou de l’absence de regards qui sont portés sur nous. Et on a conscience de ça, et on n’agit pas de façon libre quand on sait qu’on est observé.

Ce qui fait qu’on ne communique pas, non plus, les mêmes informations aux tiers, si vous voulez. Je vais avoir des débats politiques par rapport aux élections de dimanche avec ma femme, où je vais pouvoir lui parler de mes opinions, ce que je ne vais certainement pas partager avec vous parce que je ne connais pas vos propres opinions ;je n’ai pas forcément envie qu’on soit dans un débat qui peut-être vous serait désagréable ou me serait désagréable.

Donc l’échange d’informations, la liberté de pouvoir se transmettre des informations, elle dépend réellement de notre capacité à maîtriser notre vie privée.

Ce qui fait que la démocratie, évidemment, dépend de la possibilité de s’informer. Et puisque la liberté de s’informer dépend de la vie privée, il n’y a pas de démocratie sans vie privée. C’est aussi simple que ça !

Et c’est vrai aussi sur Internet. Très bizarrement, il a fallu attendre 2013 pour que l’ONU le reconnaisse officiellement, dans une résolution qui dit que les droits dont les personnes jouissent hors ligne doivent être également protégés en ligne. Mais ce n’est pas surprenant en fait, tant que ça, que ça ait dû attendre 2013. Je vous ai dit tout à l’heure, 1948, la Déclaration universelle des droits de l’homme, c’est né de la prise de conscience qu’il fallait que les individus soient protégés contre les États.

2013, on est au moment des révélations de Snowden. On est aussi en pleine explosion de Facebook, Google et compagnie. Et il y a une prise de conscience qui est en train de naître, même si vous n’en avez pas vous-mêmes conscience forcément, que les individus doivent aussi être protégés contre des entreprises qui font aujourd’hui un milliard, un milliard cinq, un milliard sept, d’utilisateurs, et qui fixent des règles sur ce qui peut être dit ou pas dit sur ces plate-formes, et qui collectent des données personnelles qui font une connaissance assez étroite de la vie privée des individus.

Et quand je disais tout à l’heure que la liberté d’expression dépend de la vie privée, si vous n’en êtes pas convaincus, il y a une chose très simple. Quand Snowden a révélé qu’on était, en gros, tous espionnés et que notre navigation sur Internet n’était pas secrète même si on utilisait le mode navigation privée de notre navigateur, le trafic sur le Wikipédia, sur toutes les pages qui étaient liées aux groupes terroristes a chuté de 30 %. Parce que, d’un seul coup, les gens se sont dits si je me mets à m’informer sur les guerres qui se passent en Syrie, en Libye, sur les révolutions en Égypte, etc., peut-être que je vais tomber dans une boîte noire, un algorithme, qui va dire aux services de renseignement que je m’intéresse à ces sujets et qu’on va me considérer terroriste. Donc plutôt que de m’informer, et donc de pouvoir informer les autres autour de moi sur ce qui se passe dans les guerres, eh bien j’arrête de m’informer.

Dans un autre exemple, hier soir on était au dîner qui était organisé pour les speakers à MiXiT et j’avais à côté de moi – je ne sais pas s’il est dans la salle, je n’ai pas retenu le prénom, je suis désolé – quelqu’un avec qui on parlait de Facebook et du fait que maintenant sur Facebook, il n’y a même plus besoin de liker ou pas liker pour signaler à Facebook qu’on est intéressé par un contenu. Il suffit de s’attarder sur un contenu, Facebook sait combien de temps on s’est attardé sur le contenu et donc il sait si on s’y est intéressé ou pas. Et il me disait : « Eh bien moi, maintenant, je ne m’attarde plus sur les contenus quand je ne veux pas que Facebook sache que je m’y intéresse. » C’est-à-dire, quand on a la conscience du fait qu’on est surveillé, qu’on change notre comportement. Et encore une fois, je me dis c’est dangereux pour la démocratie parce que vous arrêtez de vous informer, donc vous arrêtez d’informer les autres, donc vous n’êtes pas dans une vraie démocratie, vous êtes juste dépendant des informations qui sont politiquement correctes à consulter.

Et alors jusqu’à présent, jusqu’à une période vraiment très récente, quand on parlait de liberté d’expression, on s’arrêtait là. On sait, on savait, en tant que juriste, que dans liberté d’expression il y avait aussi la liberté d’opinion, mais ça ne posait pas tellement de problème. Parce l’opinion c’est le for intérieur c’est-à-dire ce qui se passe à l’intérieur de votre cerveau et on n’avait pas tellement de moyens d’aller découper votre cerveau avec un scalpel et de comprendre ce qu’il y a comme opinion politique.

Si ça se trouve, ici je vais tenir un discours très « filloniste » et peut-être qu’en fait, dans mon for intérieur, je pense plutôt « mélenchonien » et vous n’en saurez strictement rien. Et réciproquement, ce serait pareil et si vous venez me parler, peut-être que vous serez capable de tenir un discours qui est complètement différent de celui que vous pensez. Ou peut-être que, secrètement, je suis musulman, que ce soir je vais faire ma prière, et vous n’en saurez rien. Ou je suis fervent catholique et dimanche j’étais à l’église pour les fêtes de Pâques et vous n’en saurez rien non plus. C’est vraiment ce qui se passe dans ma tête, dans les vôtres, et c’est vraiment le for intérieur.

Le problème c’est qu’aujourd’hui on a tendance à cloner notre cerveau dans le cloud. C’est-à-dire qu’on dit, dans le cloud, tous les sites qu’on visite.

Si par exemple je suis musulman, que je visite des sites qui me permettent de connaître les paroles musulmanes, des prêches musulmans, je le dis potentiellement à ceux qui ont cette information dans le cloud.

Si je vais visiter le site officiel de Philippe Poutou, ça dit peut-être quelque chose sur moi plutôt que si je visitais le site de François Fillon ou Marine Le Pen.

On a tout l’historique de navigation qui est aussi souvent synchronisé sur le cloud, donc là on a la même problématique. On a aussi toutes les chansons qu’on écoute, les films qu’on regarde, les vidéos que vous regardez, donc tout ça aujourd’hui, puisqu’on utilise quasiment tous du streaming, il y a des historiques complets de ce que vous regardez, de ce que vous écoutez. Et mine de rien, ça en dit beaucoup sur vous. Si vous écoutez plutôt du rap ou si vous écoutez plutôt du Michel Sardou, ça ne dit pas la même chose sur vous.

Si vous programmez votre réveil avec le muezzin qui permet de faire votre prière tous les matins à six heures ou sept heures, ça dit quelque chose sur vous aussi.

Si vous écoutez des podcasts d’émissions révolutionnaires, ça dit quelque chose.

Tout ça ce sont des informations qui permettent de sonder votre for intérieur.

Il y a vos contacts. Vous avez tous, dans vos poches, probablement votre téléphone avec votre carnet d’adresses, avec un historique de vos appels et des mails que vous avez envoyés, à qui vous les avez envoyés ; donc on sait qui sont vos contacts réguliers, qui sont ceux que vous ne contactez jamais. Toutes ces données-là, qu’on appelle des métadonnées, finalement elles en disent beaucoup plus que le contenu même de vos communications. Et elles en disent sur vos cercles d’amis proches, sur vos cercles professionnels, sur beaucoup de choses.

Il y a les livres que vous lisez : si vous utilisez une liseuse électronique, tous les livres que vous achetez et que vous lisez, c’est archivé quelque part. Il y a même, sur certaines applications, le fait de pouvoir surligner des passages ou d’annoter. Donc on sait, dans un livre, ce que vous avez trouvé intéressant ou pas. Et on sait si le livre, vous vous êtes contenté de l’acheter ou si vous l’avez vraiment lu.

Et puis il y a toutes les questions qu’on pose à un moteur de recherche. Demandez-vous combien de fois par jour vous utilisez votre moteur de recherche et si vous l’avez déjà utilisé pour rechercher des symptômes sur une maladie que vous avez. Ou l’adresse d’un lieu où vous voulez aller. Ou si, peut-être, il y a des homosexuels parmi vous, vous cherchez un bar gay ou un site de rencontres quelconque, vous utilisez votre moteur de recherche pour le trouver. Ou si vous vous intéressez à des opinions politiques, vous allez demander à votre moteur de recherche aussi. Toutes vos recherches en disent énormément, et beaucoup plus que vous imaginez sur qui vous êtes et à quoi vous vous intéressez.

Et tout ça, ça se retrouve donc, je ne vais pas donner de noms, mais vous vous imaginez de qui je veux parler, qui réunit à peu près tous ces services-là et qui connaît toutes ces informations sur vous. Et qui peut les rendre « cherchables ». C’est-à-dire que ça devient votre cerveau, votre for intérieur, votre liberté d’opinion, qui était juste pour vous, maintenant c’est dans le cloud et n’importe qui peut aller chercher dedans, soit l’entreprise, soit éventuellement, à ce que nous dit Snowden, les services de renseignement.

Je trouve assez flippant de se dire, sachant cela, et les gens en prennent de plus en plus conscience, qu’on n’est plus libre d’adopter le comportement qu’on veut, d’aller chercher les informations qu’on veut, parce que, quelque part, quelqu’un le sait.

Et c’est ce qui fait dire à beaucoup de monde qu’on risque de perdre la liberté, sa liberté, à cause d’Internet. Moi je crois, et c’est ce qu’on croit chez Qwant, que ce n’est absolument pas vrai. Ce qui va nous faire perdre notre liberté, c’est juste le manque d’éthique sur Internet. C’est quand on crée des services en tant que développeur, en tant qu’entreprise, qui ne prennent pas en compte ces considérations pour les droits de l’homme.

Et pourtant toute entreprise, c’est ce que nous disent des principes directeurs qui ont été adoptés à l’ONU, toute entreprise, donc ça comprend aussi les auto-entrepreneurs, des gens qui sont simplement amateurs et qui diffusent des applications sur Internet, est tenue de respecter les droits de l’homme autant que les États.

Juste pour vous donner un exemple, comment Qwant on essaye de respecter les droits de l’homme et, en particulier pour nous, le respect de la vie privée. On a un moteur de recherche où on ne fait pas du tout de tracking et techniquement on respecte, on essaye de respecter, la vie privée des utilisateurs. C’est vraiment une obsession parce qu’on considère que s’il n’y a pas le respect de la vie privée, il n’y a pas de liberté de rechercher les informations qu’on veut. Donc on fait toute une série de choses techniquement :

  • pas de cookies ; c’est-à-dire qu’on est, je pense, un des rares services, malheureusement, qui n’utilise absolument aucun cookie. Et les cookies ce n’est pas seulement vous permettre d’enregistrer vos paramètres, mais ce sont souvent aussi des régies publicitaires qui vont vous identifier sur les différents sites, qui vont permettre de choisir les publicités en fonction de ce que vous avez visité précédemment ;
  • on ne conserve pas d’historique des recherches. Ça c’est très important, je vous expliquerai après pourquoi ;
  • on dissocie les adresses IP des requêtes. C’est-à-dire que les ingénieurs, chez nous, ne peuvent pas savoir que telle adresse IP a effectué telle recherche et vont simplement avoir accès à un hashFonction de hachage qui est salé, pour savoir que tel hash salé a fait telle requête. Mais impossible de croiser pour avoir plusieurs requêtes pour une même adresse IP ;
  • ce qui est standard maintenant, mais je crois que Qwant était un des tout premiers moteurs de recherche au monde à le faire en 2013 : toutesles requêtes sont chiffrées. Donc il n’y a personne à l’extérieur qui peut savoir ce qui a été recherché sur une connexion ;
  • les infrastructures sont en Europe ce qui permet d’éviter les grandes oreilles de la NSA, ou en tout cas les lettres — j’ai oublié le nom précis — mais vous savez que vous avez des lettres de la FISA [Foreign Intelligence Surveillance Act], qui est le tribunal du renseignement américain, qui peut imposer d’installer des boîtes noires sur les services en ligne et il y a interdiction d’en parler. Nous, en Europe, à partir du moment où on n’a pas une présence physique ou juridique aux États-Unis, on est à l’abri de ça ;
  • et puis on respecte le droit à l’oubli qu’on applique partout dans le monde. C’est-à-dire que s’il y a des résultats qui vous posent problème parce qu’ils ne sont pas corrects et qu’ils vous posent des soucis par rapport à votre image, on applique le droit à l’oubli et on l’applique partout dans le monde. C’est-à-dire qu’il n’y a pas seulement vos amis en France qui ne verront pas ce que vous voulez cacher, mais il y a aussi vos amis en Amérique ou en Amérique du Sud.

Je disais tout à l’heure l’historique des recherches c’est très important de ne pas le conserver. On a eu un exemple, il y a quelques semaines, d’un juge américain — et je pense que ça va se multiplier et on aura les mêmes demandes pour Qwant — qui demande les historiques de toutes les adresses IP. En l’occurrence, c’est ce qui était demandé à Google : ce sont tous les éléments d’identification qui permettent de savoir qui a recherché le nom d’une personne donnée, dans une zone géographique, pendant une certaine période. C’était pour une affaire de fraude, probablement d’usurpation d’identité, quelqu’un qui s’est renseigné pour usurper l’identité de quelqu’un d’autre et la justice essaye de savoir qui ça peut être. Et leur méthode c’est : on demande au moteur de recherche de fournir les noms de toutes les personnes qui ont effectué une certaine requête.

Là, vous vous dites peut-être ça va, c’est juste le nom d’une personnalité dans un village, mais on voit arriver des affaires où c’est beaucoup plus large que ça. Où on demande le nom des personnes qui ont recherché, ou en tout cas les adresse IP, des personnes qui ont recherché des informations sur le terrorisme, sur la fabrication de bombes ; ou, dans des États totalitaires, simplement des opposants qui recherchent le nom d’organisations d’opposants pour les rejoindre ou qui se sont intéressés à des personnalités qui sont des personnalités vraiment publiques qui peuvent être menacées par des attentats, ce genre de choses.

Quand on en arrive à pouvoir fournir ce type d’informations, ça devient, selon nous, très critique. Nous, puisqu’on n’a pas d’historique des recherches, on s’est mis en position de ne pas pouvoir répondre. Ce n’est même pas qu’on ne veut pas répondre ; on ne veut pas répondre, mais on ne peut pas répondre.

Et l’autre effet qui est, je pense, très important, on l’a vu avec l’élection de Trump et on l’a vu avec d’autres choses, c’est que quand vous faites ce que font beaucoup de services en ligne, de la personnalisation en fonction de l’historique et des goûts et du for intérieur des gens, vous les mettez de plus en plus dans une bulle de filtres. Moi je sais qu’en ce moment sur YouTube il y a eu un article, des travaux de recherche qui ont été faits récemment, où apparemment, sur YouTube, vous avez surtout des vidéos de Mélenchon et d’Asselineau qui vous sont proposées, parce que, tout simplement, ce sont les plus actifs. Et que quand vous commencez à regarder leurs vidéos, si vous regardez une vidéo de Mélenchon, vous allez avoir sur la droite d’autres vidéos de Mélenchon qui vous sont proposées, et c’est un effet boule de neige. Vu qu’ils étaient à peu près les plus actifs au départ sur YouTube, eh bien ce sont les vidéos de Mélenchon et d’Asselineau qui ressortent pour tout le monde, et vous vous retrouvez enfermé. Vous n’êtes jamais confronté aux vidéos de François Fillon, de Marine Le Pen, de Philippe Poutou. Vous êtes enfermé dans vos propres convictions et donc vous ne partagez plus que vos propres convictions avec ceux qui ont les mêmes que vous. C’est encore plus vrai sur Facebook, etc.

Nous, le fait de ne pas du tout utiliser de données personnelles, ça nous permet d’offrir les mêmes résultats à tout le monde. Ça pose certains problèmes parfois, mais globalement ça permet quand même d’avoir une société plus démocratique, où on arrête de réfléchir juste en fonction de ses propres idées ou de ceux qui ont les mêmes idées que soi-même. Et j’ai fini.

[InfoQ – Enterprise Software Development community] [Rires]

Applaudissements