Explosion des cas, haine virale, violences numériques qui s’installent dans le quotidien. Le cyberharcèlement n’est plus un phénomène marginal. Pharos a reçu 211 543 signalements en 2023, contre 175 924 en 2022. Selon une étude du CSA publiée en 2022, 20 % des jeunes de 10 à 15 ans déclarent avoir été victimes de harcèlement, et 8 % spécifiquement de cyberharcèlement.Le phénomène touche tous les espaces, scolaires, professionnels, politiques, et toutes les cibles : adolescents, salariés, militants, personnalités publiques, streamers.
Les modalités varient : messages privés massifs, commentaires haineux en boucle, détournement de photos, menaces, doxing, raids organisés. La violence, elle, est constante. Et souvent collective.
Le droit tente de suivre : création du délit de harcèlement en meute (loi de 2018), nouvelles obligations de modération imposées aux plateformes (loi de 2022, DSA), montée en puissance de la CNIL et du parquet numérique. Mais la machine judiciaire avance plus lentement que les algorithmes.
Comment sanctionner sans basculer dans la censure ? Comment encadrer une violence fluide, coordonnée, parfois involontaire, sans étouffer la liberté d’expression ? Et surtout : le droit peut-il encore réguler une violence polymorphe, virale, transnationale ?
I. Harceler derrière un écran : un délit encore trop impuni ?
A. Une mosaïque de qualifications pénales éclatées
Harcèlement moral, injures, menaces, usurpation d’identité, diffusion d’images intimes, incitation au suicide…Le droit pénal offre une palette de qualifications pour sanctionner le cyberharcèlement. L’article 222-33-2-2 du Code pénal, issu de la loi du 4 août 2014, punit ainsi le harcèlement commis par des messages répétés en ligne. Les peines peuvent aller jusqu’à trois ans d’emprisonnement et 45 000 euros d’amende lorsque la victime est mineure ou vulnérable. À cela s’ajoutent des textes plus anciens comme l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse pour les injures publiques, ou l’article 226-1 du Code pénal pour les atteintes à la vie privée.
Problème : cette diversité crée une fragmentation du cadre juridique. Chaque fait doit entrer dans une case, chaque victime doit identifier l’infraction la plus pertinente, parfois sans accompagnement juridique adapté. Dans bien des cas, cela revient à « choisir son combat » dans un système pensé pour des atteintes individuelles, alors que la violence en ligne se construit souvent en réseau, par effet d’accumulation.
L’affaire Mila en est un symbole. Après ses propos sur l’islam en 2020, l’adolescente a reçu plus de 100 000 messages de haine. Lors du procès, treize personnes seulement ont été poursuivies pour harcèlement en ligne. La majorité des participants aux attaques n’a jamais été identifiée ou inquiétée. Même dans les affaires les plus médiatisées, les sanctions sont rares, souvent limitées à quelques mois de prison avec sursis. Une réponse qui, aux yeux de nombreuses victimes, paraît largement insuffisante.
Pour mieux saisir la réalité des attaques numériques, souvent diffuses, collectives, virales, une réponse plus cohérente serait de créer une infraction autonome de cyberharcèlement collectif. La loi Schiappa de 2018 a amorcé ce tournant en introduisant la notion de harcèlement en meute. Mais dans la pratique, cette disposition reste peu mobilisée. Une infraction claire, ciblée, pensée pour les dynamiques propres aux réseaux sociaux, permettrait de sortir d’un traitement éparpillé et de reconnaître juridiquement la violence systémique que subissent les victimes du harcèlement en ligne.
B. Identifier les auteurs : l’impunité par l’anonymat ?
Derrière un pseudo, une photo de profil fictive, un VPN ou une adresse IP étrangère, les auteurs de cyberharcèlement avancent masqués. L’anonymat en ligne, parfois perçu comme un droit ou une liberté, devient dans ces cas-là un bouclier d’impunité. Pour les victimes, c’est souvent la double peine : subir, puis ne pas savoir à qui demander des comptes.
En théorie, les outils existent. Les autorités peuvent, sur réquisition judiciaire, demander aux plateformes ou aux fournisseurs d’accès les données de connexion nécessaires à l’identification. Mais dans les faits, tout est plus lent, plus flou, plus fragile. La coopération des géants du web, notamment ceux dont le siège est à l’étranger, reste inégale, malgré l’article 60-1 du Code de procédure pénale qui autorise les réquisitions judiciaires, y compris à des services en ligne.
Certaines affaires médiatisées illustrent cette impasse. En 2023, la justice française a tenté de contraindre Twitter à fournir l’identité d’auteurs de tweets haineux visant un agent public. Résultat : Twitter France a été relaxé, faute de moyens juridiques suffisants pour forcer la main à une société mère basée hors de France.
Face à ce déficit d’efficacité, une piste gagne en pertinence : renforcer les obligations de traçabilité technique imposées aux grandes plateformes, du moins dans les cas les plus graves. Cela ne signifie pas supprimer l’anonymat en ligne, mais permettre qu’il soit levé plus rapidement sur décision judiciaire, notamment dans les cas de cyberharcèlement collectif ou de menaces caractérisées. Le Digital Services Act (DSA), en vigueur depuis février 2024, va dans ce sens en imposant une plus grande transparence et une coopération renforcée avec les autorités nationales. Reste à voir si les moyens de contrôle suivront.
Sans moyens concrets pour identifier les auteurs, la lutte contre le cyberharcèlement reste partiellement théorique. Rendre la traçabilité réellement opérationnelle, sans porter atteinte aux libertés fondamentales, est un des grands chantiers à venir du droit numérique.
C. Condamnations rares, peines faibles : un sentiment d’injustice
Le cyberharcèlement est un délit reconnu. En théorie, la loi est là. En pratique, les poursuites sont rares, les jugements discrets, les peines souvent symboliques.
Dans l’affaire de la streameuse Ultia : trois hommes ont été condamnés en février 2025 à des peines allant de dix mois avec sursis à un an dont six mois ferme, pour des faits qualifiés de harcèlement moral aggravé. Mais ici encore, aucune peine réellement dissuasive ni mesure de réparation efficace n’a été prononcée.
Cette déconnexion entre l’intensité de la violence vécue et la réponse judiciaire alimente un profond sentiment d’injustice. Les victimes racontent souvent un parcours long, fragmenté, avec peu de soutien, et au bout, une décision qui ne reconnaît pas pleinement l’ampleur du préjudice subi. Le système judiciaire apparaît sous-dimensionné pour répondre à un phénomène de masse, ancré dans les logiques virales des plateformes.
Face à cette faiblesse structurelle, plusieurs pistes sont envisageables. Instaurer des peines planchers dans les cas les plus graves permettrait de garantir une réponse plus ferme et cohérente. Ce débat a été relancé à plusieurs reprises dans les propositions de lois déposées au Sénat, notamment autour du harcèlement scolaire numérique (proposition n° 480, 2023). Une autre piste serait le renforcement des juridictions spécialisées, avec des magistrats formés aux logiques numériques et aux spécificités du cyberharcèlement. Certaines juridictions comme le parquet de Paris disposent déjà de cellules spécialisées, mais ces structures sont encore trop peu nombreuses à l’échelle nationale.
Enfin, la formation des policiers, gendarmes et magistrats reste une priorité. Selon une étude du Défenseur des droits (rapport 2022 sur les discriminations numériques), nombre de victimes se heurtent à un manque d’écoute ou de compréhension lors du dépôt de plainte, faute d’outils ou de formation adaptée aux violences en ligne.
Sans une réponse judiciaire plus claire, plus rapide, plus adaptée, la lutte contre le cyberharcèlement restera incomplète. Et les plateformes ne seront jamais incitées à jouer pleinement leur rôle si l’État lui-même semble impuissant à sanctionner.
II. Le silence numérique est-il complice ? Responsabiliser les plateformes
A. Les réseaux sociaux : entre agora numérique et dérapages viraux
Les réseaux sociaux occupent aujourd’hui une place centrale dans l’espace public. Devenus de véritables lieux d’expression collective, ils concentrent une part croissante des débats politiques, sociaux et culturels. Mais derrière cette image d’agora moderne, se cache une mécanique bien plus ambivalente. Ces plateformes fonctionnent selon des algorithmes qui favorisent l’engagement maximal, c’est-à-dire les réactions fortes. Plus un contenu choque, divise ou suscite l’indignation, plus il est mis en avant. Résultat : les propos extrêmes, polarisants, souvent violents, se propagent à grande vitesse. La viralité devient un carburant, et parfois, une arme.
Dans ce contexte, les dynamiques de harcèlement prennent une dimension collective. Un message moqueur ou insultant peut entraîner un effet boule de neige, alimenté par les réactions en chaîne. La modération des contenus, censée limiter ces dérives, reste largement défaillante. Les mécanismes automatisés manquent de subtilité, tandis que la modération humaine est souvent sous-traitée à bas coût, dans des conditions précaires. En 2023, une enquête du Time révélait les réalités de la modération externalisée : pression psychologique, traumatismes, absence de formation. Cette gestion à distance et à moindre coût transforme la prévention en réaction tardive, voire en inaction.
Sur le plan juridique, les hébergeurs et plateformes ont l’obligation de retirer les contenus manifestement illicites après signalement. C’est le principe posé par l’article 6-I-2 de la loi pour la confiance dans l’économie numérique. Pourtant, cette obligation reste largement théorique : les délais sont aléatoires, les critères d’évaluation imprécis, et les moyens de contrôle trop limités. Certaines plateformes continuent d’abriter des contenus haineux signalés à plusieurs reprises, sans conséquence concrète.
Plusieurs affaires récentes ont illustré ces défaillances. En novembre 2024, Reporters sans frontières a déposé plainte contre une plateforme majeure pour avoir laissé circuler des messages usurpant leur identité, malgré des alertes répétées. Ces cas illustrent une forme d’impunité algorithmique, où les contenus peuvent rester accessibles des jours, voire des semaines, sans intervention.
Quand les États tentent d’intervenir plus fermement, ils se heurtent parfois à un autre risque : celui d’empiéter sur la liberté d’expression. En 2024, une disposition visant à réprimer les outrages en ligne a été censurée par le Conseil constitutionnel, qui a jugé la mesure trop floue et disproportionnée. Ce rappel souligne la difficulté d’élaborer un cadre juridique capable de protéger les individus sans entraver la critique ni instaurer une modération excessive.
Le vrai enjeu n’est donc plus de savoir si les plateformes doivent être responsables, mais comment elles peuvent l’être, sans se substituer à la justice ni devenir des arbitres idéologiques. Tant que leur modèle économique récompensera la viralité à tout prix, et tant que leur politique de modération restera opaque et externalisée, la violence en ligne ne sera pas un accident, mais une conséquence logique de leur fonctionnement.
B. Les obligations légales renforcées, une efficacité limitée
Sur le papier, les plateformes numériques n’ont jamais eu autant d’obligations. Depuis février 2024, le DSA impose aux très grandes plateformes des exigences strictes : retrait rapide des contenus illicites, transparence sur les algorithmes, devoir de diligence, audits réguliers, accès facilité aux chercheurs. Le texte prévoit aussi des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires mondial en cas de manquement. En France, la loi SREN (Sécuriser et réguler l’espace numérique), adoptée la même année, a renforcé les outils de contrôle de l’Arcom et introduit des sanctions administratives immédiates contre les hébergeurs passifs face aux contenus pédopornographiques, terroristes ou de harcèlement aggravé.
Mais la réalité d’application reste bien en deçà des ambitions. D’un côté, les plateformes reçoivent des centaines de milliers de signalements mensuels ; de l’autre, les moyens humains et techniques mis en œuvre sont insuffisants, voire inexistants pour certaines. Les contenus sont parfois supprimés trop tard, voire pas du tout. Les faux signalements, souvent utilisés pour faire taire des contenus légitimes, engorgent les systèmes de modération. La modération algorithmique, elle, n’a toujours pas résolu ses biais : discours militants effacés, propos nuancés supprimés, alors que des menaces bien réelles échappent encore à la détection automatique.
Le risque de surcensure est réel. L’exemple du NetzDG, en Allemagne, l’illustre bien : en imposant aux plateformes de retirer tout contenu « manifestement illégal » dans un délai de 24 heures, sous peine de sanctions financières massives, la loi a entraîné une modération défensive, où la priorité est donnée à l’évitement du risque plutôt qu’à l’analyse contextuelle. Des ONG comme Human Rights Watch ont dénoncé une atteinte indirecte à la liberté d’expression, notamment pour les contenus critiques ou satiriques.
À l’opposé, aux États-Unis, le First Amendment interdit toute ingérence directe de l’État dans la régulation du contenu en ligne. Résultat : aucune obligation légale réelle de modération n’existe, même pour les plateformes de très grande taille. Cette liberté absolue protège les droits des utilisateurs, mais rend quasi impossible l’encadrement des contenus haineux ou violents. Cette approche permissive favorise parfois l’inaction.
Entre ces deux modèles, la régulation stricte européenne et le laisser-faire américain, une question centrale persiste : jusqu’où peut-on imposer aux plateformes un rôle de police privée sans menacer les libertés fondamentales ? Si l’on veut éviter une justice algorithmique, il faudra poser les bases d’une régulation indépendante, plus transparente, fondée sur des principes clairs, et surtout accompagnée de moyens réels de contrôle.
C. Le cyberharcèlement ordinaire : harcèlement involontaire ?
Sur les réseaux sociaux, tout va très vite. Une capture d’écran, une phrase sortie de son contexte, un commentaire moqueur ou un partage sarcastique… et la machine s’emballe. Ce qu’un utilisateur perçoit comme un simple « like » ou une blague peut, dans une logique d’accumulation, contribuer à une vague de harcèlement en ligne. C’est ce qu’on appelle le cyberharcèlement ordinaire, celui qui ne s’organise pas toujours de manière consciente, mais qui blesse tout autant.
La difficulté, c’est que le droit pénal français repose en grande partie sur l’intentionnalité. Pourtant, l’article 222-33-2-2 du Code pénal sur le harcèlement moral ne requiert pas l’intention de nuire : il suffit que des agissements répétés aient « pour objet ou pour effet » une dégradation des conditions de vie de la victime. Cette formulation permet d’englober des comportements qui, pris isolément, paraissent anodins, mais qui, répétés ou amplifiés, deviennent destructeurs.
C’est justement le cas dans l’affaire Mila. Si la plupart des condamnations ont visé des auteurs de menaces explicites, des poursuites ont aussi été engagées contre des internautes ayant simplement relayé ou commenté les messages haineux. Dans une décision du 7 juillet 2021 (TGI de Paris), les juges ont rappelé que « la participation active à la diffusion d’un contenu de harcèlement constitue une infraction, même sans être l’auteur initial ».
La CNIL elle-même, dans ses campagnes de sensibilisation, martèle un message clair : « Partager, c’est parfois harceler ». Elle souligne que les « likes », partages et réactions contribuent à la viralité, donc à la violence collective. Le ministère de l’Éducation nationale a repris cette logique dans sa communication auprès des jeunes.
Face à cette forme diffuse de violence, le droit est confronté à une difficulté majeure : peut-on sanctionner juridiquement des comportements grégaires, parfois impulsifs, sans sombrer dans la pénalisation excessive ? À ce jour, il n’existe pas d’infraction autonome pour participation non intentionnelle à un harcèlement collectif. Mais certaines décisions commencent à tendre vers une responsabilité partagée, notamment lorsqu’il est prouvé que l’utilisateur savait ou devait savoir que sa réaction alimentait une spirale de violence.
Une telle évolution ouvrirait la voie à une redéfinition du cadre de la responsabilité numérique. Non pour surveiller chaque clic, mais pour rappeler que dans un espace où tout peut devenir public, chaque interaction peut avoir un impact. La viralité, aujourd’hui arme banalisée, devra peut-être demain devenir un critère d’analyse juridique à part entière.
III. Le droit peut-il protéger sans censurer ? Vers une régulation partagée
A. Des terrains minés : école, travail, vie publique
Le cyberharcèlement n’est pas un phénomène cantonné aux écrans. Il déborde dans les établissements scolaires, infiltre les entreprises, vise les figures publiques avec une régularité inquiétante. Et pourtant, dans ces espaces où la parole numérique a des conséquences bien réelles, les outils de protection restent souvent sous-dimensionnés, voire absents.
Les dernières données officielles disponibles, issues d’une enquête menée en 2023 par le ministère de l’Éducation nationale, indiquaient que près d’un élève sur cinq se déclarait victime de cyberviolences répétées. Deux ans plus tard, les retours du terrain laissent penser que la situation n’a pas significativement reculé.Le programme pHARe, généralisé à toutes les académies depuis la rentrée 2023, visait justement à structurer une politique de prévention, avec notamment la désignation de référents harcèlement dans chaque établissement. Mais en 2025, ces référents manquent encore souvent de formation adaptée aux spécificités du numérique, alors même que les mécanismes de harcèlement évoluent rapidement. Quant aux outils de signalement comme le numéro 3018, ils restent sous-utilisés. Beaucoup d’élèves hésitent encore à se confier, par peur de représailles, d’indifférence, ou par méfiance envers la réaction institutionnelle. Et pourtant, depuis la loi du 2 mars 2022, le harcèlement scolaire est reconnu comme un délit pénal autonome (article 222-33-2-3 du Code pénal), pouvant entraîner jusqu’à 10 ans de prison et 150 000 € d’amende en cas de suicide ou tentative.
Dans le monde du travail, les choses sont à peine plus structurées. Groupes WhatsApp d’entreprise, emails moqueurs, posts anonymes sur les réseaux : les salariés victimes de cyberharcèlement peinent à obtenir une reconnaissance claire de leur situation. Or, selon le Code du travail (article L.4121-1), l’employeur a une obligation de sécurité envers ses salariés, y compris pour des faits survenus via des outils numériques professionnels. Pourtant, rares sont les entreprises qui désignent un référent harcèlement numérique, ou qui intègrent ces situations dans leur document unique d’évaluation des risques professionnels (DUERP).
Les personnalités publiques, quant à elles, vivent dans un climat d’exposition permanente. Politiques, journalistes, artistes ou militantes féministes, toutes et tous peuvent devenir la cible d’un raid numérique. La chanteuse Aya Nakamura a été la cible d’une campagne de cyberharcèlement à caractère raciste et misogyne, suite à l’annonce de sa participation à la cérémonie d’ouverture des Jeux olympiques de Paris 2024. Cette vague de haine en ligne a suscité une enquête du parquet de Paris pour des publications racistes visant l’artiste. De nombreuses personnalités publiques ont exprimé leur soutien à Aya Nakamura face à ces attaques.
Face à cela, une proposition s’impose : généraliser la désignation de référents cyberharcèlement dans tous les milieux éducatifs et professionnels. Ces référents, dotés d’une formation spécifique, auraient un double rôle : repérer les situations à risque et orienter les victimes vers les dispositifs adaptés (cellules d’écoute, plainte, signalement plateforme). Ils seraient aussi un relai de prévention, capables de sensibiliser collectivement sur les usages numériques à risques.
Ce maillage humain, à condition d’être accompagné de moyens concrets et d’un cadre réglementaire renforcé, serait un levier puissant pour prévenir et contenir une violence qui prospère, aujourd’hui encore, dans les angles morts du droit.
B. Liberté d’expression vs dignité : la tension fondatrice
Sur les réseaux sociaux, où chacun peut réagir en un clic et publier à toute heure, la frontière entre critique légitime et violence verbale est devenue extrêmement ténue. Peut-on encore contester, interpeller, dénoncer… sans risquer l’accusation de cyberharcèlement ? Et à l’inverse, peut-on protéger la dignité des personnes sans menacer la liberté d’expression ? Cette tension est au cœur des débats sur la régulation du numérique.
Le droit français protège fortement la liberté d’expression, notamment à travers la loi du 29 juillet 1881 sur la liberté de la presse. Mais cette liberté connaît des limites, clairement posées par les infractions de diffamation (article 29 al.1) et d’injure publique (article 33), ou encore par les délits de provocation à la haine ou à la violence (articles 23 et 24). Ces restrictions visent à éviter que la liberté d’exprimer devienne une arme de destruction personnelle.
À l’échelle européenne, la Cour européenne des droits de l’homme (CEDH) rappelle régulièrement que la liberté d’expression (article 10 de la Convention EDH) n’est pas absolue. Elle peut être restreinte pour protéger la réputation et les droits d’autrui. Dans l’arrêt Delfi AS c. Estonie (CEDH, 2015), la Cour a confirmé qu’une plateforme d’information pouvait être tenue responsable des commentaires haineux publiés par ses utilisateurs, malgré l’absence d’intervention directe. Autre exemple, dans l’arrêt Sanchez c. France (CEDH, 2023), un élu a été condamné pour n’avoir pas modéré les commentaires haineux sur sa propre page Facebook : la CEDH a validé cette condamnation, estimant que la passivité d’un administrateur de page pouvait engager sa responsabilité.
Mais à force de vouloir tout encadrer, un autre risque émerge : la surcensure. Aujourd’hui, ce sont les plateformes elles-mêmes, via leurs algorithmes de modération ou leurs sous-traitants, qui décident ce qui peut être dit ou non. Cette délégation privée d’un pouvoir de régulation pose problème. En l’absence de cadre clair et de transparence, des propos critiques, militants ou satiriques peuvent être supprimés au même titre que des contenus haineux.
C’est pourquoi plusieurs juristes et institutions proposent la création d’un organe indépendant de supervision des contenus en ligne. L’idée : sortir de la logique binaire (ouverture totale vs censure algorithmique) et permettre une évaluation humaine, encadrée, transparente. Un tel organe pourrait s’inspirer du modèle de l’ARCOM, mais avec une mission étendue à la liberté d’expression en ligne. Il ne s’agirait pas de trancher tous les cas à la place des plateformes, mais d’offrir un recours, une médiation, un cadre d’analyse pour les zones grises.
Protéger sans censurer, garantir la parole sans tolérer la haine : c’est là que se joue aujourd’hui l’équilibre démocratique de nos espaces numériques.
C. Pour une régulation intelligente et partagée
La lutte contre le cyberharcèlement ne peut pas reposer sur un réflexe punitif ou sur la seule volonté des plateformes. Elle suppose un changement d’échelle, de méthode et surtout d’état d’esprit. Réguler intelligemment, c’est penser à long terme, avec des outils durables et une vision partagée de la responsabilité numérique.
Les plateformes, d’abord, ne peuvent plus se retrancher derrière leur statut d’hébergeur passif. Elles disposent de moyens techniques inégalés pour détecter, hiérarchiser, amplifier ou invisibiliser les contenus. Elles doivent désormais assumer leur rôle d’intermédiaires actifs. Retrait rapide des contenus signalés, transparence sur les logiques algorithmiques, politique claire de sanctions pour les comptes récidivistes : ces leviers existent. Mais ils ne sont encore que trop partiellement utilisés, et rarement vérifiés par une autorité extérieure.
Les utilisateurs, eux aussi, ont un rôle central. Parce qu’un simple clic peut déclencher un raid de harcèlement ou prolonger sa visibilité. Parce que la viralité d’un contenu n’est jamais neutre. Des campagnes de sensibilisation rappellent régulièrement que “liker, c’est parfois harceler”, et que le partage impulsif peut contribuer à une violence de groupe. L’éducation au numérique, dans les écoles, les familles, mais aussi dans les entreprises, doit devenir un pilier de la régulation. Apprendre à interagir en ligne, c’est apprendre à cohabiter dans un espace commun.
Les institutions, enfin, doivent faire le lien entre la loi, l’accompagnement et la prévention. Cela implique non seulement de renforcer les moyens des autorités compétentes pour identifier, poursuivre et condamner les auteurs de cyberharcèlement, mais aussi de former les professionnels de terrain : enseignants, personnels RH, référents dans les collectivités. Ce sont eux les premiers maillons de la détection, ceux qui peuvent agir avant que les faits ne deviennent irréversibles. C’est aussi à l’échelle locale que se construit la confiance dans les dispositifs de signalement.
Former, prévenir, accompagner : voilà les trois axes d’une régulation qui ne se contente pas de réparer les dégâts, mais qui tente de les éviter. Si chacun – plateformes, internautes, institutions – accepte de jouer sa part, alors il devient possible de construire une culture numérique du respect, ancrée dans les pratiques autant que dans le droit. Une culture qui reconnaît les violences sans les banaliser, et qui défend la parole sans justifier qu’elle blesse.
Conclusion
Le cyberharcèlement, dans sa forme actuelle, met à l’épreuve les fondements mêmes du droit pénal, pensé pour des agressions identifiables, isolées, localisées. Or, la violence numérique est tout le contraire : diffuse, collective, rapide, anonyme, transfrontalière. Face à cette réalité mouvante, le droit tente de s’adapter, mais il reste souvent en retrait, en décalage avec la temporalité et la mécanique des réseaux sociaux.
Les réformes engagées ces dernières années ont permis quelques avancées, création de nouvelles infractions, obligations renforcées pour les plateformes, structuration de certaines cellules judiciaires spécialisées. Mais les limites demeurent : identification difficile des auteurs, modération défaillante, sanctions symboliques, accompagnement insuffisant des victimes.
Il devient donc nécessaire de changer d’approche. La lutte contre le cyberharcèlement ne peut reposer uniquement sur la pénalisation et la réaction. Elle suppose une meilleure coordination entre les outils techniques, les logiques de prévention, et une responsabilisation plus forte de tous les acteurs du numérique : plateformes, institutions, utilisateurs.
Ce n’est qu’en croisant ces dimensions, juridique, sociale, éducative et technique,qu’une régulation plus cohérente, plus fluide et plus efficace pourra émerger. Non pour faire taire, mais pour mieux encadrer. Non pour surveiller, mais pour protéger. Et faire en sorte que l’espace numérique, devenu central dans nos vies, ne reste pas un angle mort du droit.