modération réseaux sociaux

#10 : Bannouze : La modération sur le web

Épisode diffusé le 21 février 2019 par Bannouze : Le podcast du marketing digital !

Écouter l'épisode :

0:00 --:--
Vitesse

La modération réseaux sociaux, c’est le truc dont personne ne parle – jusqu’au jour où une page Facebook d’une grande marque part en vrille sous les insultes et que le community manager réalise qu’il gère ça seul, entre deux briefs créa et une réunion de reporting. Jérémie Mani a passé plus de dix ans à réfléchir exactement à ce problème-là, d’abord dans l’email marketing dès 1999, puis comme co-fondateur de Netino en 2010, une société spécialisée dans la modération de contenus pour grandes marques et médias. Ce qu’il dit sur le sujet est souvent contre-intuitif.

Et franchement, ça fait du bien d’entendre quelqu’un qui a les mains dans le cambouis depuis neuf ans plutôt qu’un consultant qui a lu trois articles Medium sur le community management.

Ce que modérer veut vraiment dire – et ce que les marques comprennent mal

Stricto sensu, la définition tient en une phrase. Relire un contenu publié par un internaute et décider s’il reste en ligne ou pas. Voilà. Mais dans la réalité opérationnelle, c’est beaucoup plus glissant que ça.

Mani le résume avec une précision qui m’a surpris :

La modération, ça consiste à relire ou visionner un contenu publié par un internaute, par exemple sur une page Facebook, et décider s’il faut le retirer ou pas. Une insulte va être retirée parce qu’elle correspond pas à la charte de modération. Une critique constructive est tout à fait acceptable.

Dit comme ça, ça a l’air simple. Sauf que la frontière entre critique acceptable et propos problématique, elle se déplace selon les marques, les contextes, les heures de la journée.

Le vrai défi ? La subjectivité. Un modérateur qui bosse le lundi midi et un autre le mardi minuit n’ont pas forcément la même tolérance au langage fleuri. C’est exactement pour ça qu’une charte de modération bien construite peut faire entre 20 et 30 pages – avec des chapitres entiers sur la diffamation, la vulgarité, les insultes, et des exemples concrets de ce qui passe ou non. (Ce volume surprend toujours les clients au démarrage, d’ailleurs.)

Mani cite un exemple volontairement bateau pour illustrer la subjectivité du truc : quelqu’un qui écrit dans un commentaire ‘c’est con ce qui t’arrive, t’as pas eu de cul’. Ce type de formulation passe sans problème sur certaines pages, parce que c’est familier sans être agressif. Sur une page d’une marque de luxe ? Autre histoire. Ce n’est pas l’image qu’ils projettent, ni le registre qu’ils attendent de leur communauté.

L’objectif de la charte, donc, c’est d’encadrer cette subjectivité inhérente – et de s’assurer qu’un propos accepté un jour ne soit pas refusé le lendemain sous prétexte que c’est un autre modérateur qui a pris la décision.

La modération réseaux sociaux dans une stratégie digitale : indispensable et invisible

Paradoxe complet. La modération réseaux sociaux est jugée indispensable par les équipes qui la commandent, et à faible valeur ajoutée par… les mêmes équipes. Mani le dit sans détour – et c’est probablement la vérité la plus inconfortable de toute la conversation.

C’est souvent une tâche jugée indispensable d’un côté, à faible valeur ajoutée de l’autre, il faut être honnête. Parce que quand c’est bien fait, personne s’en rend compte. Personne ne dit ‘ah, super modération aujourd’hui, j’ai pas vu d’insulte’.

Ce qui m’agace, c’est que cette invisibilité du travail bien fait est exactement le problème de toutes les disciplines défensives dans le marketing. La sécurité informatique, la conformité RGPD, la modération – on les remarque uniquement quand ça plante.

La logique est pourtant limpide. Tu investis massivement en publicité Facebook pour ramener du trafic sur ta page. Une agence te pond des posts magnifiques. Et derrière, une douzaine de trolls suffisent à plomber l’expérience globale pour toute ta communauté. Ce serait un non-sens de laisser ça sans filet.

Qui est concerné concrètement ? En théorie, toute société avec un espace de dialogue ouvert. En pratique, les grands médias et les grosses marques sont les premiers à avoir structuré cette fonction – notamment dès qu’elles ont commencé à investir massivement sur Facebook, Instagram et YouTube. Twitter est volontairement exclu du périmètre de modération chez Netino, parce que l’architecture du réseau ne s’y prête pas vraiment – on peut répondre, pas vraiment modérer.

Et le community manager dans tout ça ? Il est débordé. Il a les contenus à produire, les métriques à suivre, les briefs à valider. La modération réseaux sociaux est une répartition des rôles naturelle, selon Mani – pas une sous-traitance de confort.

Trois profils de trolls, et un retraité charmant qui voulait ‘foutre le bordel’

L’anecdote que raconte Mani à ce moment de la conversation est probablement ce qui m’a le plus frappé dans tout l’épisode.

Quelqu’un avait insulté les modérateurs de Netino sur les réseaux, menaçant de venir ‘casser la figure’ à l’équipe, en précisant qu’il connaissait leurs adresses. Profil pas très masqué. Résultat : identification, contact de la gendarmerie locale, rencontre physique avec le journaliste.

C’était un monsieur charmant. C’était un retraité qui avait juste envie de s’amuser et qui disait ‘voilà, je vais foutre un peu le bordel’. Ça l’amusait. Mais il comprenait pas derrière que ça crée une angoisse chez des gens comme vous et moi qui font juste leur travail.

Voilà. On parle d’un retraité qui trouvait ça rigolo. Pas d’un militant extrémiste, pas d’un activiste organisé. Juste quelqu’un qui avait découvert qu’internet lui donnait un micro sans conséquences.

Mani distingue trois profils dans son expérience. D’abord ceux dont la parole ne correspond même pas à leur pensée – ils jouent un rôle, et quand on les confronte, ils sont décontenancés. Ensuite ceux qui, après un bannissement, rappellent pour supplier d’être réactivés, parce qu’ils sont attachés à la communauté. Un grand blanc au téléphone quand on leur lit leurs propres commentaires des douze derniers mois. ‘Oui, j’ai dû écrire ça, je me suis peut-être un peu emporté, je suis désolé.’ Pas de prise de conscience réelle. Juste un embarras.

Et puis il y a la troisième catégorie. Les vrais racistes, les vrais trolls, ceux qui assument complètement, qui revendiquent leurs propos comme une liberté d’expression et qui ne reculeront pas. Ceux-là, aucune charte de modération ne les décourage vraiment – on les retire, ils reviennent avec un autre compte.

La loi s’applique sur internet – mais en pratique, pas vraiment

Sur ce point, Mani est lapidaire. Et lucide.

Un propos raciste, antisémite, homophobe – c’est hors la loi. En France. Sur internet comme ailleurs. Sauf que les gens qui tiennent ces propos le savent et s’en fichent, parce qu’ils calculent correctement que la probabilité d’une condamnation effective est quasi nulle. Et même si condamnation il y a, au terme d’une longue procédure, le quantum de la peine ressemble à 200 ou 300 euros d’amende. Ce n’est pas dissuasif.

La loi s’applique en théorie. Elle ne s’appliquera pas en pratique. C’est ça le vrai problème. Les gens savent qu’il n’y aura aucune conséquence derrière.

C’est exactement le problème. Et il pointe deux pistes complémentaires pour y remédier – pas l’une sans l’autre.

L’éducation, d’abord. Pas seulement à l’école pour les enfants, mais aussi pour les adultes. Parce qu’être actif sur Facebook, c’est un usage qui n’existe que depuis quelques années, et beaucoup de gens n’ont pas encore intégré que ce qu’ils publient est public, pas une conversation entre amis dans un salon.

La répression, ensuite. Pas de manière systématique et disproportionnée, mais des exemples visibles de condamnations avec une explication claire de pourquoi. Pour ancrer l’idée qu’internet n’est pas un espace différent de la rue – personne ne hurle un propos antisémite dans la rue, pas parce que c’est interdit, mais parce que les conséquences sociales et légales sont immédiates.

Ces deux pistes prennent du temps. Ce n’est pas une solution à horizon d’un mandat politique. Mais Mani ne prétend pas avoir de solution rapide – et c’est ce qui rend son analyse crédible.

Levée de l’anonymat : le faux remède miracle

C’est la question qui revient dans tous les débats sur la modération réseaux sociaux depuis dix ans. Et Mani la démonte en deux arguments précis.

Premier argument : aujourd’hui, des milliers de personnes postent avec leur prénom, leur nom, leur photo – aucun anonymat. Et ça ne les empêche absolument pas de tenir des propos hors la loi. (Ce que j’ai vérifié moi-même en passant dix minutes sur n’importe quelle page d’information politique un soir d’élection.) La levée de l’anonymat ne résoudrait donc pas l’ensemble du problème, même dans le meilleur scénario.

Deuxième argument : comment vérifier concrètement l’identité de chaque utilisateur à l’ouverture d’un compte ? Qui le fait ? Combien ça coûte ? C’est juste impossible à l’échelle de Facebook, Instagram ou TikTok.

Mais – et c’est là que je diverge un peu avec Mani – ça ne veut pas dire que l’identification renforcée n’a aucun effet dissuasif à la marge. Des plateformes comme LinkedIn montrent qu’un réseau construit sur des identités réelles change le registre des échanges. Pas parfaitement. Mais ça change quelque chose. La vraie question n’est peut-être pas ‘est-ce que ça marche à 100%’ mais ‘est-ce que ça vaut le coût et la contrainte sur la liberté d’expression’.

La levée totale de l’anonymat, non. Un système gradué de vérification optionnelle avec badge de compte vérifié, peut-être. C’est pas la même chose.

Modérer toute la journée – et ne pas s’y perdre

La question du bien-être des modérateurs est posée dans l’épisode, et Mani y répond avec une honnêteté qui tranche avec les discours corporate habituels sur le sujet.

Oui, il y a un accompagnement psychologique à prévoir. Non, ce n’est pas aussi lourd que ce que les modérateurs internes de Facebook vivent – parce que Netino travaille pour des grandes marques et des médias, ce qui constitue déjà un filtre naturel. On ne voit pas les pires horreurs du net, seulement les commentaires sur les pages de marques grand public.

Ce qui tient les équipes à flot, selon lui, c’est le sens du travail.

Là je viens d’enlever un propos outrageusement raciste. Super, entre guillemets. Personne d’autre que moi ne le verra. Peut-être que des dizaines d’enfants ou d’adultes auraient pu le voir si j’avais été un peu plus lent. Je sers à ça.

Ce n’est pas du tout une formule RH destinée à retenir des équipes sous-payées. C’est – et ça se sent dans le ton – une conviction réelle sur l’utilité sociale du boulot. Et ça, c’est rare à entendre dans un secteur où la modération réseaux sociaux est encore souvent traitée comme une ligne de coût à compresser.

Neuf ans à diriger Netino, et Mani n’a pas l’air épuisé par le sujet. Ce qui est – objectivement – une bonne nouvelle pour ses clients.

Questions fréquentes

Qu'est-ce que la modération réseaux sociaux exactement ? +
La modération réseaux sociaux consiste à relire les contenus publiés par les internautes sur les espaces d'une marque ou d'un média - pages Facebook, forums, YouTube - et à décider si ces contenus doivent rester en ligne ou être supprimés. Une insulte est retirée, une critique constructive reste. L'objectif est de maintenir un espace de dialogue sain pour toute la communauté.
La modération réseaux sociaux est-elle réservée aux grandes entreprises ? +
En théorie, toute société avec un espace de dialogue ouvert est concernée. En pratique, ce sont surtout les grandes marques et les médias qui ont structuré cette fonction, notamment dès qu'ils ont investi massivement sur Facebook, Instagram et YouTube. Les PME restent souvent exposées sans filet.
Comment fonctionne une charte de modération ? +
Une charte de modération est un document de 20 à 30 pages établi en début de collaboration entre la marque et l'équipe de modération. Elle détaille par chapitres - insultes, diffamation, vulgarité - ce qui est acceptable ou non, avec des exemples précis. Son rôle est d'encadrer la subjectivité naturelle des modérateurs pour garantir une cohérence dans les décisions, quel que soit le modérateur ou l'heure de la journée.
La levée de l'anonymat sur internet résoudrait-elle les problèmes de harcèlement en ligne ? +
Non, pas complètement. De nombreuses personnes postent déjà avec leur vrai nom et leur photo et tiennent des propos hors la loi sans hésiter. Par ailleurs, vérifier l'identité de chaque utilisateur à l'ouverture d'un compte est logistiquement et financièrement impossible à l'échelle des grandes plateformes. La levée totale de l'anonymat n'est ni réalisable ni suffisante.
Qui gère la modération réseaux sociaux dans une entreprise ? +
La modération est souvent externalisée à des prestataires spécialisés comme Netino, en lien direct avec le community manager, le social media manager et parfois le service client. Le community manager n'a généralement pas le temps d'assurer cette tâche seul - la répartition des rôles est naturelle.
La modération des contenus nuit-elle à la liberté d'expression ? +
C'est le débat central. La position de Jérémie Mani est claire : les critiques constructives restent en ligne, seules les insultes, la diffamation et les propos illégaux sont supprimés. La charte de modération est précisément là pour tracer cette frontière de façon objective plutôt qu'arbitraire.

Épisodes similaires