Par Frédéric Tiberghien, Président de Repères et Perspectives

Après ce débat très stimulant entre nos intervenants, je le résumerai en répondant à quatre questions.

1ère question : y a-t-il lieu d’avoir le vertige devant le potentiel ouvert par le big data ?

Vertige signifiant perte de l’équilibre ou des repères, le titre de notre débat renvoie à l’appellation de notre cycle de conférences « Repères et perspectives ». Le but de ce cycle est de fournir des repères sur des sujets de société difficiles et, au cas présent, nous avons quatre raisons de nous inquiéter.

1.1 Une raison quantitative, qui tient à la croissance exponentielle de la masse des données stockées. Elle a été multipliée par 8 entre 2009 et 2015 et le sera par 40 d’ici 2020. L’infographie projetée en ouverture alimente ce vertige quantitatif, car quand on emmagasine autant de données, c’est pour les exploiter un jour, que l’on soit un Etat ou une entreprise.

1.2 Deuxième raison de s’inquiéter, les Etats sont désormais en capacité technique de mettre en place une société de surveillance.
Ce qu’avaient évoqué George Orwell dans 1984 ou Michel Foucault dans « Surveiller et punir, naissance de la prison » en 1975 est désormais à portée de main. Big brother est là, pour reprendre les termes de Dominique Cardon.
Les supports techniques utilisés pour recueillir des données sont multiples : téléphones ou ordinateurs portables, multiplication des caméras de surveillance dans les espaces publics ou privés, couplée aux technologies de reconnaissance faciale, comme l’a souligné G Babinet, cartes à puces ou bancaires … ou du piratage de données évoqué par la présidente de la CNIL.
Les révélations d’E Sonwden en 2013 ont mis sur la place publique l’ampleur des moyens mis en œuvre par certains Etats pour surveiller des individus et se livrer à un espionnage économique, politique ou sécuritaire.

Nous entrons donc dans une société de la traçabilité où il est possible de tout savoir sur tout le monde, y compris au domicile si on exploite les données issues par exemple de la télévision câblée, de l’ordinateur ou du nouveau compteur Linky. La sphère privée se réduit et devient de plus en plus transparente.
Nous entrons aussi dans une société prédictive car toutes ces données, exploitées grâce aux algorithmes et à l’intelligence artificielle, permettent de modéliser les comportements et de les prédire comme l’a souligné G Babinet. C’est ce qui a conduit les Etats-Unis à réclamer à l’Union européenne après le 11 septembre 2001 les données personnelles de tous les passagers d’avions en partance pour cette destination, afin de pouvoir identifier les terroristes potentiels. Mais on sait par E Snowden que ces données n’ont pas été utilisées qu’à cette fin et les autorités européennes, qui n’y avaient pas vu d’objection, ont été désavouées par la Cour de Justice qui a annulé à deux reprises, le 30 mai 2006 et le 6 octobre 2015, la décision et l’accord qui avaient autorisé ces transferts au motif que les standards américains (Safe Harbor) n’offraient pas un niveau de protection des données personnelles adéquat.
La présidente de la CNIL a également évoqué la note de confiance donnée en Chine aux citoyens et aux entreprises pour apprécier la capacité à rembourser ses dettes et à respecter la morale, de manière à influer sur les comportements. Et une loi de juin 2017 oblige à stocker sur le territoire chinois toutes les données personnelles de sorte qu’elles restent accessibles aux autorités dans leur effort pour contrôler la population, à l’abri d’une grande muraille numérique.

1.3 Troisième raison de s’inquiéter, les entreprises privées se sont également dotées d’outils très puissants d’analyse des données.
On pense tout d’abord aux GAFA dont le modèle économique repose sur la captation gratuite des données personnelles de leurs clients et leur réutilisation pour leur adresser une publicité ciblée comme l’a rappelé D Cardon, qui a aussi mentionné l’existence d’un « marché noir » de la revente de ces précieuses données. Bref, les données analysées sont réutilisées pour proposer en temps réel des biens et services correspondant aux goûts de l’utilisateur (voir en ce sens le potentiel offert par la combinaison du smartphone et de la géolocalisation).

Mais les autres entreprises sont également en mesure de traiter et d’utiliser de nombreuses données. La présidente de la CNIL a évoqué la question du contrôle exercé sur les salariés (utilisation de la messagerie ou d’internet à des fins personnelles; badgeage ; suivi des véhicules…) et du recrutement à l’aide de données recueillies sur les réseaux sociaux (e-reputation), pouvant déboucher sur des discriminations à l’embauche.
Elle a également évoqué le secteur de l’assurance où l’exploitation de données personnelles, notamment de santé, peut avoir pour effet de sélectionner les « bons » risques et de porter atteinte au principe de solidarité qui fonde notre pacte social.

1.4 Dernière raison de s’inquiéter, nous aborderions une nouvelle étape dans l’histoire de l’humanité.
Dans un livre récent « Home deus, une brève histoire d’avenir », Yuval Noah Harari évoque deux scenarii, qui font peur. Dans le premier qui conjugue le big data et la bio-ingénierie, une classe de surhommes aux capacités augmentées par l’intelligence artificielle dirigerait le monde, les autres devenant inutiles. Dans le second, se généraliserait une nouvelle religion, celle du dataïsme, qui marquerait la fin de l’espèce humaine actuelle.
Ces dystopies, projections anxiogènes, accentuent le vertige que l’on peut ressentir face à ce sujet.

2ème question : pourquoi une si faible résistance individuelle et collective devant le big data et la captation des données personnelles ?

Là encore, quatre raisons sont identifiables.

2.1 En premier lieu, nos 3 intervenants ont pointé de manière convergente les nombreux bénéfices du big data.
Il offre des facilités d’accès gratuites à de nombreux services, d’information notamment. Il permet de se regrouper par affinités et contribue à éviter que nous nous enfermions dans nos bulles, pour reprendre l’expression de D Cardon.
Il renforce les grandes libertés publiques (liberté d’information et de communication, liberté de pensée, liberté de réunion…) , comme l’a souligné la présidente de la CNIL.
Et puis il aide à résoudre des problèmes jusqu’ici insolubles. Prenant l’exemple de la province de Shangaï, G Babinet a illustré comment l’exploitation des données personnelles de santé pouvait permettre d’améliorer le diagnostic, d’identifier des maladies rares, de prédire l’évolution de certaines maladies ou de contenir les épidémies grâce à une médecine personnalisée, prédictive et plus pertinente. Autre exemple, le recours à la conduite assistée que permet l’intelligence artificielle devrait permettre de réduire fortement les engorgements sur les infrastructures routières et d’accroître la sécurité.
Faisant écho aux propos sur le retard de la France en matière d’utilisation des données de santé, la présidente de la CNIL a rappellé que celles-ci sont considérées comme particulièrement sensibles par le législateur et qu’une loi du 26 janvier 2016 a ouvert à la recherche l’accès gratuit à ces données dès lors qu’elles sont anonymisées.

2.2 L’équilibre, difficile à maintenir, entre sécurité et liberté a été fragilisé après les attentats du 11 septembre 2001 et par la montée du terrorisme international.
Les sociétés et les opinions publiques acceptent plus facilement des entorses aux libertés, songeons par exemple à la vidéosurveillance, pour des raisons de sécurité individuelle ou collective. Ces restrictions sont jugées un mal nécessaire pour lutter contre le terrorisme et la grande criminalité.
Ceci rejoint les propos tenus par G Babinet au sujet de la place que tient la prévention dans la culture médicale chinoise et la remarque de l’un des participants. Les autorités chinoises mettent l’accent sur la vidéosurveillance et la reconnaissance faciale car elles permettent de prévenir les comportements jugés asociaux et d’assurer la sécurité publique.

2.3 L’idéologie diffusée par les GAFA voudrait que la vie privée n’ait plus d’importance. Marc Zuckerberg, le fondateur de Facebook, disait en 2010 que « L’ère de la vie privée est close ». Nous devrions accepter, comme personnes digitales, que nos histoires s’inscrivent désormais sur la toile de fond numérique.
Mais D Cardon nous a convaincus que la notion de vie privée, apparue au XVIII ème siècle et codifiée aux Etats-Unis dans la seconde partie du XIX ème comme un droit d’être laissé tranquille, ne disparaîtrait pas. Nous avons des identités numériques qui se superposent désormais à notre identité physique mais chacun redessine les contours de sa vie privée en fonction des technologies disponibles.

2.4 Internet, le big data, les algorithmes et l’intelligence artificielle sont au service de la société de marché et visent d’abord à satisfaire les consommateurs que nous sommes.
On ne soulignera jamais assez que l’essor vertigineux des technologies associées au big data correspond à la convergence ou à l’accomplissement de 3 grandes étapes de notre histoire : l’individualisme du XVIIIème qui privilégie toutes les libertés individuelles sans restriction, l’Etat Providence du milieu du XIX ème qui est censé tout prévoir et tout prévenir, le consumérisme de la société de marche de la fin du XXème.
De même que, selon certains auteurs, nous serions entrés dans une période de « soft democracy », nous serions entrés dans une période de « soft happiness ». J Rifkin relève dans « L’âge de l’accès », selon une belle formule, qu’ « il n’y a plus de différence entre communication, communion et commerce ».
Les Etats soutiennent clairement le développement d’internet et du big data par différentes initiatives : l’open data que nos intervenants ont évoqué, l’e-démocratie, l’e-administration, la lutte contre la fracture numérique.
Il existe clairement une Sainte Alliance entre les Etats, les entreprises et les consommateurs pour développer internet et le big data. C’est clair en Chine et aux Etats-Unis. C’est également clair chez nous. Pour tous ces acteurs, « le plus utile est le plus important » pour reprendre l’expression de D Cardon. Les citoyens ayant adopté dans ce domaine une configuration ou une posture utilitariste, ils peuvent aussi manifester des comportements réels qui différent des représentations qu’ils se font de la vie privée.

3ème question : peut-on réguler l’utilisation des données personnelles et comment ?

3.1 Pour répondre à cette question, il faut d’abord clarifier un point essentiel : qui est propriétaire des données personnelles ?
La présidente de la CNIL nous a indiqué que la loi française avait fait un choix : elles ne nous appartiennent pas mais chacun a le droit de décider de leur utilisation, ce droit étant un des éléments de la dignité de la personne humaine. C’est ce que les allemands appellent le droit à l’autodétermination informationnelle.

3.2 Cette précision apportée, l’échange entre G Babinet et I Falque-Pierrotin montre qu’il est très difficile de réguler ce domaine pour deux raisons.
On touche ici au progrès scientifique et technologique, qui n’a jamais pu être contrôlé par personne, d’autant plus qu’il procède ici par ruptures et changements d’échelle.
D’autre part, la concurrence entre les entreprises sur le marché est une autre force que personne ne peut mettre sous contrôle.

Deux visions s’affrontent, qu’on retrouve dans d’autres domaines. Selon la première, il ne faut pas réglementer trop tôt pour ne pas entraver le progrès technique et la créativité mais accepter d’expérimenter avant de tirer des leçons et de réguler puisque désormais « code is law ». Selon la seconde, compte tenu du régime de protection des données personnelles voulu par le législateur et correspondant à l’équilibre qui prévaut en Europe, il faut se réjouir que le RGPD remédie à la relation asymétrique qui s’est établie au détriment des citoyens et uniformise, à compter de mai 2018, les règles applicables en Europe, qui devrait de ce fait pouvoir « remonter dans le train numérique » qu’ont emprunté les Etats-Unis et la Chine.

3.3 Quelques leviers ont été identifiés pour réguler l’utilisation des données personnelles.
Je noterai tout d’abord que nous n’avons évoqué ni le rôle des autorités de la concurrence dans leur lutte contre les abus en matière de pouvoir de marché ou d’évasion fiscale – l’Union européenne est à juste titre très active là-dessus -, ni le rôle des autorités de régulation sectorielles pour tout ce qui concerne l’accès au net (neutralité, clarté du contrat conclu avec les usagers…), ni les leviers technologiques (privacy by design ; certification des algorithmes au regard de certains standards…).
Nous avons surtout traité des leviers juridiques (anomymisation des données pour la recherche ; maintien d’une restriction sur l’usage du NIR, le numéro d’identification personnelle qui permet d’interconnecter les fichiers…) et des 4 grands principes reconnus en Europe et qu’il convient maintenant d’appliquer : l’autorisation de l’utilisation des données personnelles, qui n’est pas toujours recueillie; le droit d’accès, de correction et de faire retirer les contenus illégaux, point sur lequel les hébergeurs marquent peu d’empressement ; la portabilité des données et le droit à leur effacement ; le droit à l’oubli (fixation d’une limite à la durée de conservation des données).

Une autre controverse entre G Babinet et I Falque-Pierrotin nous a aussi montré qu’un débat subsistait sur le point de savoir si la machine, en l’espèce les algorithmes, pouvait ou non prendre des décisions à la place de l’homme. Notamment en matière administrative ou judiciaire, où l’intervention d’un décideur et une faculté de recours restent nécessaires.

J’ajouterai qu’un approfondissement éthique, dans la société, dans les entreprises et l’administration est indispensable sur les questions touchant à la valorisation des données, à la maîtrise et au contrôle des algorithmes, à la place de l’intelligence artificielle et aux modalités d’assistance aux activités humaines procurées par cette dernière (intégrité du corps et modification de ses capacités).

Nos trois intervenants ont en revanche été unanimes sur la nécessité de renforcer l’éducation à la culture digitale, incluant le respect de la vie privée. Pour la présidente de la CNIL, il est possible de s’appuyer sur le Référentiel mondial sur l’éducation numérique adopté il y a deux ans. Pour D Cardon, il est important d’apprendre aux jeunes à « mettre la main dans le cambouis » et à « apprivoiser des pratiques heureuses » qui soient en harmonie avec leurs représentations de la vie privée.
Pour G Babinet et pour D Cardon, il convient d’aborder cette éducation par le côté positif du big data et d’éviter de la fonder sur la peur, ce qui constitue une réponse claire à la première question posée.

4ème question : que pouvons-nous faire comme simples citoyens ?

Sur ce point, je repars de ce débat avec 3 idées claires.

Premièrement, nos intervenants m’ont convaincu que les bénéfices l’emportaient sur les risques. Il faudra le répéter.

Deuxièmement, que la vie privée n’était pas une notion périmée. Le big data permet de donner plus d’intensité à nos existences, selon D Cardon. Simplement, son contenu et ses modalités de préservation évoluent.
Sur ce point, la présidente de la CNIL nous invite à veiller au maintien de l’équilibre, spécifique à l’Europe, entre nouveaux besoins et protection des données personnelles.

Troisièmement, pour maintenir l’autonomie de la personne et le consentement éclairé à l’utilisation des données personnelles, chacun de nous doit, selon la présidente de la CNIL, acquérir quelques réflexes tels que la diversification des mots de passe, le recours aux bloqueurs de publicité, la réflexion et le paramétrage des destinataires avant de poster des contenus personnels sur les réseaux sociaux…

Je vous donne rendez-vous le mardi 10 avril 2018 à 20 h 30 pour notre prochain débat, consacré à la mondialisation.