Nous avons consacré dans cette lettre plusieurs articles aux "fake news" qui ont infesté le Web depuis plusieurs mois. Mais il est bon de se demander quelle est la responsabilité juridique des moteurs de recherche dans leur transmission. Et, au-delà de ces considérations, de se poser la question d'un pouvoir que pourraient acquérir ces acteurs à définir ce qui est bon et ce qui est mauvais, s'approchant ainsi d'une possibile dictature du savoir et des opinions...
La campagne des élections présidentielles aux Etats-Unis a été l'occasion de grandes vagues de « fakes news » où chaque camp répandait des informations fausses, incomplètes ou encore sorties de leur contexte (voir notre article du mois dernier à ce sujet). Le caractère amplificateur des réseaux sociaux et le fait que les deux candidats principaux utilisaient des technologies big data pour adapter leur message électoral en fonction des tweets et messages Facebook des électeurs, ont mis en lumière ces dérives. C'est dans ce cadre que les grands opérateurs, à commencer par Google, Facebook ou Twitter, ont décidé (certes, sous une forte influence politique) de mettre en place des mesures de lutte contre ces fausses informations. Ce souhait se heurte pourtant à une réalité juridique… promue par ces mêmes acteurs.
Les promesses de lutte contre les fake news
Cible de nombreuses « fake news », le clan Clinton a obtenu assez rapidement de la part des grands acteurs (Google, Facebook, Twitter, etc) la mise en place de mesures contre leur développement. Ainsi, Google et Facebook (dont le business model repose notamment sur une très puissante régie publicitaire) ont annoncé couper les revenus publicitaires aux « faux » sites d'information.
Cette décision pouvait comprendre, dans l'exemple de Google, l'interdiction aux sites visés, de participer au programme AdSense qui permet de recevoir une rémunération en tant que support de publicité Google : « Nous allons commencer à interdire les publicités sur les contenus trompeurs, de la même manière que nous interdisons les publicités mensongères », a expliqué Google dans un communiqué à l'Agence France-Presse du 15 novembre 2016. Pourtant, Google n'a pas modifié sa politique sur le programme AdSense ni les Conditions Générales de celui-ci qui ne fait que « combattre les sites illicites ». En d'autres termes, seuls les sites dont le contenu est « illicite » pouvaient (et peuvent) être concernés par cette mesure. En outre, aux termes du « Règlement du Programme AdSense » qui a valeur contractuelle, « les éditeurs ne sont pas autorisés à insérer du code AdSense sur des pages dont le contenu n'est pas conforme à nos consignes en la matière. Il peut s'agir, par exemple, d'un contenu réservé aux adultes, ou incluant des incitations à la violence ou au racisme. Pour en savoir plus, consultez notre article relatif au contenu interdit ». On peut toutefois regretter que le « contenu interdit » visé par ce Règlement ne contienne rien sur les « fake news » spécifiquement, et parle juste des contenus « illicites »...
Facebook avait promis, exactement au même moment, de mettre également en place des mesures concrètes de lutte contre ce fléau. Les mêmes envolées en conférence de presse ont conduit à la même absence de changements juridiques et contractuels : aucune modification des Conditions Générales de Facebook sur ce sujet n'est à signaler au oment où ces lignes étaient écrites.
Le principal impact de ces déclarations et de cet axe de communication est que ces acteurs ont fait croire au monde entier, à commencer par les politiques, qu'ils allaient réellement lutter contre les « fake news ». Il est d'évidence que ces acteurs ont été pris de court au moment de l'élection présidentielle aux US (et probablement un peu avant avec le Brexit) et qu'ils ont réagi, c'est-à-dire qu'ils ont dit ce que les journalistes (et sûrement les politiques) attendaient qu'ils disent.
Or, cette communication les rattrape désormais. Par exemple, fin avril 2017, 26 eurodéputés ont interpellé Google (sur papier à en-tête du Parlement européen, ce qui a une valeur symbolique, mais aussi juridique) car un site américain « proche de l'extrême droite (…) déformait la vérité, dans le but de provoquer la haine et la division ». Etonnamment, ce site participe toujours au programme AdSense (uniquement par le moteur de recherche interne), ce qui lui permet de recevoir des recettes de la part de Google. Google a apporté une réponse très générale, se référant principalement aux termes de sa politique mais n'a évidemment pas répondu spécifiquement au cas présenté, en renvoyant la responsabilité aux annonceurs eux-mêmes, qui utilisent Google : « Nous avons conçu des outils complets pour que les annonceurs puissent définir, de façon très précise, les contenus et les sites qu'ils jugent appropriés pour leurs publicités. Les annonceurs peuvent, pas exemple, cibler et bloquer des contenus par sujet, catégories, niveau de sensibilité, et même par URL [l'adresse d'un site]. ».
Concomitamment, Google indiquait le 25 avril 2017 avoir apporté des modifications à son moteur pour limiter la visibilité des fausses informations. Comme Abondance l'annonçait en avril, le projet "Google Owl" (ou hibou) propose notamment, dans un effort de crowdsourcing, des formulaires permettant aux internautes de donner leur avis sur la qualité des résultats de l'autocomplétion et des featured snippets du moteur. A priori, ce sont les Internautes qui peuvent signaler des fausses informations (ou informations douteuses), mais il ne s'agit pas d'une action intrinsèque de Google.
La problématique juridique de la lutte par les intermédiaires contr les fake news
Google, comme tous les autres intermédiaires, est confronté à un problème majeur : depuis 1997 aux Etats-Unis et 2000 en Europe, les intermédiaires ne sont juridiquement pas responsables tant qu'ils restent neutres.
Voici 17 ans que l'Union européenne a adopté un texte concernant les intermédiaires techniques, au travers de la directive 2000/31/CE du 8 juin 2000 sur le commerce électronique, qui a été transposée en droit français grâce à la loi "Confiance en l'Économie Numérique" du 21 juin 2004 (la « LEN »). Ce sont toujours ces textes qui s'appliquent pour Google, Facebook, Twitter, etc. En matière d'intermédiaires sur Internet, la loi a posé le principe suivant:
- "L'éditeur" est responsable du contenu (texte, images, etc.) du contenant (site, forum, serveur, etc.) qu'il gère,
- "L'intermédiaire technique" n'est pas responsable du contenu qu'il héberge ou traite ou transporte, sauf si un tiers lui notifie valablement un contenu illicite. La raison de cette irresponsabilité de principe est qu'un intermédiaire ne peut pas tout surveiller et tout vérifier. Google ne peut pas vérifier la validité et la licéité de tous les sites que son robot référence.
Ainsi, par exemple (et il y en a beaucoup désormais), la Cour d'appel de Paris a, par arrêt du 19 mars 2009, rappelé l'irresponsabilité des moteurs de recherche dès lors qu'ils sont neutres. En l'espèce, une société avait assigné Google et Yahoo ! en se plaignant du référencement naturel d'un site la dénigrant, leur reprochant de ne pas avoir vérifié le contenu du site. Les moteurs se sont défendus en soulignant qu'ils procédaient à un référencement de manière automatique, sans aucun contrôle a priori sur leurs robots, et ne pouvaient en conséquence maitriser le référencement. La Cour a rejeté la responsabilité de Google et Yahoo!, en précisant que ces moteurs n'avaient pas à vérifier le contenu de chaque site et à s'assurer de leur conformité à la loi. Toutefois, la Cour a souligné que « l'exploitant du moteur de recherche n'échappe pas à toute responsabilité et que celle-ci peut être engagée pour les fautes, imprudences ou négligences qu'il commet dans l'exercice de son activité », avant d'ajouter que « le fonctionnement intrinsèque du moteur de recherche exclut tout contrôle a priori des sites indexés par l'exploitant ». Elle a ainsi conclu que « ce caractère automatique des résultats affichés et l'absence de toute analyse de contenu excluent une intention de nuire ou délictueuse, que ce soit de diffamer ou de dénigrer ».
En conséquence, le caractère automatique du référencement naturel et la neutralité de celui-ci permet aux moteurs d'échapper à toute responsabilité naturelle.
Ce principe d'irresponsabilité tant que le moteur est neutre n'a pas été remis en cause, de manière significative, depuis près de 20 ans. Et c'est notamment (mais pas uniquement) ce principe d'irresponsabilité qui a permis à de tels empires de s'ériger : en étant certains de ne pas avoir de procès, les moteurs sécurisaient leur business model.
C'est donc très probablement pour cette raison que les moteurs et autres intermédiaires refusent, en pratique, de rentrer trop dans l'analyse et dans la sanction de sites : pour ne pas devenir acteur sur le contenu et donc, potentiellement, responsables.
La limite juridico-philosophique de ces éventuelles interventions
Au-delà de l'aspect juridico-juridique, il est également intéressant de se demander s'il est réellement opportun de laisser Google, Twitter et Facebook déterminer seuls ce qui est bien ou mal, ce qui est une vraie ou une fausse information.
D'une part, la « vérité » n'a jamais été uniforme et sera toujours fonction de la position et du temps de l'analyse. Il apparaissait évident en février 1933 que les communistes avaient incendié le Reichstag, on sait aujourd'hui que ce sont les nazis qui l'avaient fait.
La « vérité officielle » actuelle veut que le Président Kennedy ait été assassiné par Lee Harley Oswald seul, sans complice. Si le principe absolu de « fake news » était appliqué de manière implacable, tout site qui viendrait à remettre en question cette « vérité officielle » serait alors considérée comme « hors la loi » de Google ou de Facebook. Oliver Stone n'aurait donc pas le droit de faire et/ou de promouvoir son film « JFK »… Pourtant, chacun peut avoir une opinion différente de la « version officielle » de la mort du Président Kennedy.
Tant que nous voudrons rester en démocratie, il est donc important de bien s'interroger sur la limite entre d'une part la lutte contre de scandaleuses « fake news » qui sont des atteintes à l'honneur ou à la dignité de la personne humaine et, d'autre part, la censure douce et silencieuse qui amène à la dictature… La vérité, historique, scientifique ou autre, repose également sur le débat, la liberté d'expression, la confrontation d'idées… en d'autres termes sur une vie démocratique et saine.
D'autre part, si une « vérité » devait malgré tout être fixée (comme c'est malheureusement de plus en plus le cas), le juge (fonctionnaire d'Etat et non salarié du privé) reste l'acteur le plus neutre et le plus légitime pour entreprendre cette mission. Même si cela peut en faire sourire certains, le juge reste un professionnel de la neutralité, comme un arbitre au football, même s'il n'est pas parfait. Personne n'est plus professionnel de la neutralité que le juge. Le seul intérêt du juge est d'appliquer les règles et de faire respecter la loi. Ce propos philosophique amène à la question centrale de savoir s'il est opportun de laisser à une entreprise privée, dont le but est avant tout mercantile, de trancher sur la notion de vérité.
Enfin, il est important de conclure en rappelant que les « fakes news », le fait de divulguer de fausses informations est pénalement sanctionné par l'article 27 de la loi du 29 juillet 1881 « La publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d'une amende de 45 000 euros ». Il n'y a pas besoin d'inventer de nouvelles lois, celles en vigueur depuis près d'un siècle et demi sont parfaitement applicables par n'importe quel juge français…
Nous estimons donc qu'il est peu probable que les intermédiaires, comme Google, Facebook ou Twitter aient un intérêt à se positionner réellement (au-delà de la communication) comme un acteur de la lutte contre les « fake news ».
Alexandre Diehl
Avocat à la cour, cabinet Lawint (http://www.lawint.com/)