L’avocate Delphine Meillet, spécialiste de l’e-réputation, juge sévèrement les projets de légiférer sur les fake news et indique d’autres solutions.

Benalla, une falsification étrangère ? DisinfoLab, une ONG belge inconnue au bataillon médiatique, jetait un pavé dans la mare pendant le feuilleton de l’été : cette affaire aurait généré trois fois plus de tweets que le hashtag #BalanceTonPorc, mais surtout les tweets auraient été « manipulés » par des comptes « pro-Mélenchon » et « russophiles ». Dans un premier temps, l’hypothèse d’une ingérence organisée a été défendue par Benjamin Griveaux, porte-parole du gouvernement, qui a appelé à ce que « toute la transparence soit faite sur la diffusion de ce type de message ». Or, dans un second temps, les commentateurs avisés concluaient qu’il n’y avait « pas d’ingérence russe dans l’affaire Benalla ».

Le porte-parole du gouvernement semblant accréditer une fake news au moment où le gouvernement défend un projet de loi pour lutter contre, on est passé très près de la vraie bourde.

Deux textes relatifs à « la lutte contre la manipulation de l’information » en période électorale sont actuellement débattus par les parlementaires. Leur but : permettre le retrait rapide de contenus nocifs durant les élections, et seulement pendant cette période. À ce jour, l’Assemblée nationale a voté en première lecture les propositions de loi, mais les sénateurs les ont rejetées sans même en discuter. Le processus législatif suit son cours.

48 heures

L’élément central est de donner au juge le pouvoir, sous quarante-huit heures, de faire cesser la publication sponsorisée – autrement dit payante – de « fausses informations de nature à altérer la sincérité du scrutin à venir ». En d’autres termes, durant les trois mois précédant une élection et jusqu’au jour du scrutin, tout électeur pourra saisir le juge, qui devra décider en deux jours, pas plus, d’ordonner la suppression ou le blocage d’une information-publicité qui lui apparaît « fausse » au cas où elle manipulerait le choix du vote à venir. L’ambition est de taille !

Mais voilà comment, sous prétexte de protéger la démocratie, on risque de la mettre gravement en péril. Comment un juge pourra-t-il en deux jours, en mode go fast, vérifier la légitimité de celui ou celle qui le saisit, l’intention de l’auteur de l’information, si la révélation est vraie ou fausse, et, plus ardu encore, quel sera l’impact de cette information sur le vote à venir ?

Autre point qui fâche : la question de la charge de la preuve est fondamentale. Dans le système proposé en France, la charge de la preuve repose sur celui qui dépose la demande. Par exemple, Emmanuel Macron peut-il prouver qu’il n’a pas de compte bancaire aux Bahamas, ce dont l’accusait Marine Le Pen ? Difficile de faire la preuve de ce que l’on n’a pas.

Les moyens de lutte contre les fake news que le gouvernement entend mettre en place risquent d’être inefficaces et même contre-productifs.

Des procédures efficaces existent

Il existe déjà en France des instruments légaux propres aux périodes électorales permettant de lutter contre les fake news, comme la loi relative à « la publication de fausses nouvelles qui trouble l’ordre public » et celle relative à ceux qui les diffusent « dans le but de détourner des suffrages ». Mais ces deux lois sont très rarement employées, car, là encore, la charge de la preuve de la « fausse nouvelle » repose sur la partie qui poursuit, exercice extrêmement difficile : comment déterminer avec certitude si cette information visée est bien fausse et si elle a réellement troublé l’ordre public ou déterminé avec certitude le vote de l’électeur ? Et qu’est-ce qu’une fake news ? Une désinformation ? Une rumeur ? Une fausse nouvelle ?

Restent fort heureusement des procédures judiciaires efficaces dans certaines circonstances. La loi du 29 juillet 1881 sur la liberté de la presse permet un délai de poursuite extrêmement court, vingt-quatre heures, « en cas de diffamation ou d’injure pendant la période électorale contre un candidat à une fonction électorale », soit un référé électoral qui ne porte pas son nom. Ici, c’est au défendeur de faire la preuve de sa bonne foi. Existe aussi une procédure d’urgence, dite « référé LCEN » [pour loi pour la confiance dans l’économie numérique, NDLR], qui permet à tout moment de demander rapidement le retrait d’un contenu ou d’un lien « manifestement illicite » sur le Net.

Ces systèmes-là sont performants et plus ou moins rapides, mais encore faut-il que l’auteur de la fausse information soit identifié et identifiable, ce qui n’est pas toujours le cas.

Cibler l’hébergeur

Que faire lorsqu’on ne parvient pas à identifier l’auteur d’une fake news diffusée sur des plateformes ? En France, le législateur a voté une loi en 2004, dite loi LCEN, régissant la question de la responsabilité des publications sur Internet en distinguant éditeur de contenu – celui qui maîtrise la publication, l’information, comme l’auteur d’un tweet – de l’hébergeur de contenu – l’intermédiaire technique comme Google, Facebook, Twitter, tout site… Le principe est que la responsabilité du contenu n’est engagée que si les hébergeurs n’ont pas « promptement » retiré la publication illicite ou bloqué l’accès d’un site alors qu’on leur avait signalé. Mais cette responsabilité reste très théorique.

Alors, plutôt que de s’attaquer au contenu, c’est-à-dire à la fake news elle-même, ne vaudrait-il pas mieux se pencher pour plus d’efficacité sur ceux qui la diffusent, l’hébergeur, le site lui-même. Leur responsabilité doit être effective et proportionnelle au pouvoir démesuré qu’ils exercent dans le monde réel de la vie de la cité.

Rappelons la puissance de frappe des plateformes, Facebook en tête. L’ordre d’idée est vertigineux : Facebook, c’est plus de 2 milliards d’utilisateurs actifs dans le monde, dont 33 millions en France, et Twitter, plus de 300 millions, dont 10 millions en France.

Les plateformes, les moteurs de recherche, les sites démontrent que, lorsqu’ils y sont contraints, ils parviennent à mettre en place des dispositifs de contrôle de leur contenu. La procédure mise en place par Google en droit à l’oubli et les programmes d’intelligence artificielle créés par nécessité par Facebook en matière de terrorisme ou de pédopornographie en sont les parfaites illustrations.

Mais ces avancées ne sont pas suffisantes. Les propositions de loi passent fort malheureusement à côté du sujet principal : la mise en cause des hébergeurs.

Responsabilités

C’est pourquoi il serait opportun de faire évoluer le droit afin de renforcer la responsabilité des plateformes, des sites, comme le suggèrent judicieusement les associations antiracistes :

– que les hébergeurs situés hors de France soient tenus de désigner une personne qui réside en France pour les représenter et que, faute d’avoir supprimé un contenu signalé comme illégal de manière flagrante dans un délai de quarante-huit heures, cette personne soit tenue pour responsable ;

– d’obliger les plateformes à vérifier et à conserver les données d’identification lors de la création d’un compte et, en l’absence d’identification réelle de l’auteur, fermer le compte sans délai ;

– de permettre dans certains cas exceptionnels, lorsqu’ils diffusent un contenu clairement illégal, d’ordonner la fermeture définitive d’un site, d’un profil, d’un compte, d’une page, d’un groupe… sans que le site attaqué puisse se défendre.

En résumé, si on veut porter un vrai coup d’arrêt aux fake news, c’est à la porte des hébergeurs qu’il faut frapper.