T
raditionnellement, deux conceptions de la régulation des contenus en ligne s’opposent entre la France et l’Europe. La conception européenne historique est celle de la responsabilité des créateurs de contenus par principe et celle des plateformes par exception : ce n’est que si un contenu illicite a été notifié à la plateforme et qu’elle ne l’a pas retiré « promptement » que sa responsabilité – pénale, civile ou administrative – pourra être engagée par la victime d’un contenu ou par le ministère public.
La conception française, elle, repose sur la censure administrative, c’est-à-dire une censure policière qui ne passe pas par un juge. L’office anticybercriminalité (OFAC), rattaché à la direction de la police nationale, peut, de sa propre initiative et sans recueillir d’avis contraignants, exiger d’une plateforme qu’elle censure un contenu pédopornographique, à caractère terroriste, d’offre ou de cession de produits stupéfiants, de torture ou d’actes de barbarie.
A ce pouvoir sont adjointes des sanctions dissuasives, sous la forme d’amendes ou avec la possibilité d’un blocage de l’ensemble de la plateforme récalcitrante en France. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) n’a qu’un rôle de contrôle de légalité a posteriori : elle peut saisir le juge administratif en cas de désaccord avec la police. Cependant, le contenu en litige restera censuré tant que le juge ne se sera pas prononcé.







