Thaima Samman (Cabinet Samman) "En Europe, on ne peut pas reprocher aux plateformes de diffuser des contenus illégaux"

Le DSA établit que les plateformes n'ont pas d'obligation de contrôle des contenus qu'elles diffusent. Mais ces dernières sont obligées de coopérer avec les autorités si les procédures sont respectées.

JDN. Que disent les règlementations française et européenne en matière de modération de contenus sur les plateformes sociales et services de messagerie ?

Thaima Samman. Le Digital Services Act (DSA) organise la gouvernance du traitement de contenus par les plateformes en précisant que ces dernières n'ont pas d'obligation de contrôle généralisé. Rappelons que les plateformes sont considérées par la législation comme ce qui était qualifié de fournisseurs d'hébergement jusque-là. En d'autres termes, et pour simplifier, les plateformes n'étant pas à l'origine du contenu qu'elles diffusent, on ne peut pas leur reprocher que des contenus illégaux soient diffusés sur leur structure. Ceci étant, le DSA précise également qu'à partir du moment où une plateforme est informée de l'existence de contenus illégaux sur ses propriétés, elle a l'obligation de traiter cette situation en évaluant la pertinence de l'enlever ou non. Le DSA ne prend pas position sur la nature des contenus à modérer ou non.

A vous entendre, on peut supposer que Telegram, en laissant faire malgré de nombreux signalements sur l'existence de contenus et d'activités illégales dans sa plateforme, a agi en conformité avec le DSA.

C'est bien la plateforme qui décide de l'action. Elle a une obligation d'agir à partir du moment où elle est informée et sa décision peut être contestée auprès de l'Arcom puis devant le Conseil d'Etat.

Mais une plateforme peut-elle vraiment arbitrer entre ce qui est légal ou illégal ? Ce serait lui donner beaucoup de responsabilité avec un double risque : soit trop de permissivité, soit trop de censure. Le problème se pose quant aux nombreuses zones grises qui exigent des plateformes de prendre position. Rappelons-nous l'épisode où Meta a censuré la diffusion d'images de L'Origine du monde, de Gustave Courbet.

Les plateformes ont toutes des lignes éditoriales exprimées dans leurs conditions générales d'utilisation, et c'est leur droit. Un X par exemple n'aura pas la même ligne éditoriale qu'un Facebook. En dehors des contenus illégaux, si elles décident de supprimer des contenus, elles peuvent être contestées sur la base du droit à la liberté d'expression. Rappelons que même s'il n'existe pas de droit absolu à la liberté d'expression, il s'agit d'une liberté fondamentale dont les contraintes doivent être prévues, définies, proportionnées et limitées. Dans les pays européens, la liberté d'expression a toujours été accompagné d'exceptions mais de manière très précise et déterminée – ces limites on ne les invente pas, elles sont dans les textes, elles sont strictement encadrées.

Entre un positionnement politique, la manipulation des utilisateurs, une fake news et la vente de drogues, quels sont les critères permettant de considérer un contenu comme devant être supprimé ?

Chaque pays a ses propres critères pour considérer un contenu comme pouvant être sanctionné pénalement. Des différences fortes existent, même entre pays démocratiques. En France, les contenus illégaux, comme ceux relevant de la pédopornographie ou de l'incitation à la haine raciale, doivent être retirés, il n'y a pas de discussion sur ce point. Ici deux sources de droit permettent de qualifier les contenus illégaux et cela s'applique aussi au numérique : d'une part la Loi 1881, qui indique qu'on ne peut limiter la liberté d'expression qu'en cas de diffamation, injure, outrage, promotion de la violence, etc. ; d'autre part, le Code pénal, qui précise tout ce qui est interdit, comme la discrimination sexuelle, le racisme, l'antisémitisme, le terrorisme, etc. Rappelons par ailleurs une troisième source de droit, le code civil, qui protège le droit d'auteur, et une quatrième, le RGPD, qui protège les données personnelles.

Enfin, vous pouvez également avoir un contenu qui n'est pas illégal par nature mais dont les conditions de diffusion le rendent illégal. Par exemple, la pornographie lorsqu'elle est mise à disposition des moins de 18 ans ou un commentaire lorsqu'il est massifié et qu'il prend la forme du harcèlement. A noter que la jurisprudence de ces dernières années concernant la liberté d'expression montre que les décisions sont très contextualisées en tenant compte de qui porte le contenu et des circonstances de sa diffusion.

Un autre reproche fait à Telegram en France ou à X au Brésil, c'est leur manque de coopération avec les autorités dans le blocage de comptes. A contrario, en Inde et en Turquie, X a accepté, à la demande des gouvernements, de bloquer des comptes des personnalités d'opposition et de journalistes. Comment préserver un juste équilibre dans les pays démocratiques du moins ?

Les plateformes doivent respecter les règles des pays dans lesquels elles opèrent. En Europe, le DSA indique clairement que lorsqu'un contenu est jugé illégal dans le pays où il est diffusé, les plateformes doivent coopérer avec les autorités et le supprimer à leur demande. Nous sommes dans un Etat de droit : les autorités ne peuvent pas tout demander aux entités privées mais ces dernières doivent respecter la loi quand l'obligation de collaborer est prévue d'autant que, dans les pays démocratiques du moins, les personnes mises en cause et les témoins sont protégés.

Telegram n'est pas le seul réseau utilisé pour des pratiques illicites, les contacts pouvant également s'établir par Snapchat ou WhatsApp. Est-il possible de disposer d'une réponse unique à toutes ces plateformes, où que se trouve leur siège social ?

Quand un contenu diffusé dans un pays membre de l'Union européenne est considéré illégal et qu'il est diffusé depuis un autre pays-membre, c'est le pays d'origine de la diffusion qui doit agir sur l'entité qui l'a diffusé pour demander sa suppression. Si en revanche le contenu est diffusé en France depuis un pays tiers à l'Union européenne, la compétence de demander sa suppression revient à la France. Encore faut-il pouvoir mettre en œuvre opérationnellement l'interdiction auprès du bon décisionnaire : dans le cas de Telegram, il a fallu attendre que son PDG vienne en France pour pouvoir l'arrêter.

En France et en Europe, dans quelles situations les plateformes sont-elles tenues de dévoiler l'identité de leurs utilisateurs ?

Elles sont obligées de le faire s'il existe une procédure administrative ou pénale en cours d'instruction. En France, le code pénal précise cependant que les autorités ne peuvent pas demander l'adresse IP si la peine encourue pour l'infraction causée est inférieure à un an de prison. Pour tout ce qui se trouve au-dessus, le droit à l'anonymat n'existe pas.

Comment réagissez-vous au changement de posture du PDG de Telegram qui s'est mis à coopérer avec les autorités judiciaires françaises ?

Dès lors qu'il s'agit d'enquêtes avec un certain nombre d'éléments qui permettent aux autorités judiciaires de demander des compléments d'informations et que l'on respecte strictement la procédure, Telegram est obligé de coopérer. Nous sommes là bel et bien dans le cadre d'infractions pénales.

Ceci étant, nous vivons dans un Etat de droit et dans ce cadre la justice et la police ne peuvent pas tout demander à Telegram. Les procédures administratives et judiciaires prévoient dans quelles conditions des informations doivent être livrées à quelles autorités et dans quelles limites. La Constitution nous protège contre des abus des autorités et des pouvoirs publics.