Les Standards de la communauté définissent ce qu’il est acceptable de partager et interdisent le contenu nuisible, notamment les discours haineux, le harcèlement, l’intimidation et le partage d’images intimes sans consentement.
Lorsque nous estimons qu’il existe un risque réel d’agression physique ou une menace directe pour la sécurité publique, nous supprimons le contenu, désactivons les comptes et collaborons avec les services d’urgence locaux.
Nos politiques n’autorisent pas les contenus qui révèlent l’appartenance d’une personne à un groupe désigné et reconnu comme étant à risque, ni les contenus qui mettent un membre de la communauté LGBTQ+ en danger en révélant contre son gré ou sans sa permission son orientation sexuelle ou son identité de genre.
Nous pensons que les personnes s’expriment et interagissent plus librement lorsqu’elles ne se sentent pas attaquées en fonction de leur identité. C’est la raison pour laquelle nous interdisons tout type de conduite haineuse sur Facebook, Instagram et Threads.
Nous définissons les conduites haineuses comme une attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, fondée sur ce que nous appelons des caractéristiques protégées (CP) : l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre et les maladies graves. De plus, nous considérons l’âge comme une caractéristique protégée lorsqu’il est mentionné parallèlement à une autre caractéristique protégée. Nous protégeons également les réfugié·es, les migrant·es, les immigrant·es et les demandeur·ses d’asile contre les attaques les plus graves, bien que nous autorisions les commentaires et les critiques sur les politiques d’immigration. Dans le même ordre d’idées, nous protégeons certaines caractéristiques non protégées, comme la profession, lorsqu’elles sont mentionnées parallèlement à une caractéristique protégée. En fonction des nuances locales, nous prenons parfois en considération certains mots ou certaines phrases, comme les termes fréquemment utilisés pour désigner les caractéristiques protégées.
Nous supprimons les propos déshumanisants, les allégations sur des actes immoraux ou criminels graves et les insultes. Nous supprimons également les stéréotypes préjudiciables, que nous définissons comme des comparaisons déshumanisantes historiquement utilisées pour attaquer, intimider ou exclure des groupes spécifiques et souvent liées à la violence hors ligne. Enfin, nous supprimons les insultes graves, les expressions de mépris ou de dégoût et les appels à l’exclusion ou à la ségrégation lorsqu’ils visent des personnes sur la base de caractéristiques protégées.
Nous reconnaissons que les utilisateur·ices partagent parfois des contenus incluant des insultes ou des discours d’autrui pour les condamner ou les signaler. Dans d’autres cas, des discours, y compris des insultes, qui pourraient enfreindre nos standards sont utilisés de manière autoréférentielle ou de manière valorisante. Nous autorisons ce type de discours lorsque l’intention de l’intervenant est claire. Nous nous réservons le droit de supprimer le contenu concerné lorsque l’intention n’est pas claire.
Le harcèlement et l’intimidation peuvent prendre plusieurs formes, notamment les messages de menaces, les prises de contact malveillantes non sollicitées et la publication d’informations personnelles. Nous ne tolérons pas ces comportements.
Meta distingue les personnalités publiques des personnes privées, car notre plateforme prône l’échange, ce qui implique souvent des commentaires critiques concernant des individus qui attirent l’attention des médias ou du grand public. En ce qui concerne les personnalités publiques, Meta supprime les publications contenant des termes péjoratifs, les appels à l’agression ou à l’exploitation sexuelle, les appels au harcèlement de masse et les menaces de divulgation d’informations privées.
Nous reconnaissons que l’intimidation et le harcèlement peuvent avoir des répercussions émotionnelles et physiques encore plus graves sur les personnes mineures. C’est pourquoi nos politiques protègent davantage les plus jeunes.
Le partage non consenti d’images intimes enfreint les politiques de Meta, tout comme les menaces de partage de ces images. Nous supprimons les images publiées sur Facebook et Instagram par vengeance ou sans autorisation, ainsi que les photos ou vidéos montrant de la violence sexuelle. Nous supprimons aussi tout contenu menaçant, ou qui incite à la violence ou l’exploitation sexuelles.
Si quelqu’un partage des images intimes de vous sans votre consentement ou vous menace de le faire, signalez cette personne. Nos équipes examinent les signalements 24 h/24 et 7 j/7 dans plus de 70 langues et suppriment les images ou vidéos intimes partagées sans consentement. Nous supprimons également tous les contenus qui menacent de partager des images intimes sans autorisation. Dans la plupart des cas, nous désactivons le compte qui partage ou menace de partager ce contenu sur nos technologies.
Pour empêcher toute nouvelle tentative de partage d’une image supprimée, nous utilisons des technologies préventives de reconnaissance d’images. Si quelqu’un tente de partager l’image après qu’elle a été signalée et supprimée, nous l’informerons que cette action enfreint nos politiques. Nous empêcherons également la nouvelle tentative de partage et pourrons désactiver le compte. Nous vous encourageons à signaler les cas de sextorsion, c’est-à-dire lorsque des personnes menacent quelqu’un de partager des photos ou des vidéos intimes, ou forcent quelqu’un à le faire. Ce comportement va à l’encontre des Standards de la communauté Facebook et, dans certains cas, enfreint également la loi.
Si vous voulez signaler des actes qui vont à l’encontre des Standards de la communauté Facebook, comme le discours haineux, le harcèlement, l’intimidation ou la violence, accédez au contenu à signaler et utilisez le lien Assistance ou Signaler. Nous avons constitué une équipe de spécialistes qui analysent 24 h/24, 7 j/7 dans plus de 70 langues les signalements de contenu en infraction, et nous utilisons une technologie d’intelligence artificielle qui détecte et supprime ce contenu avant même que les internautes le voient.
Nous nous efforçons de protéger la vie privée, la sécurité et l’accès des utilisateur·ices aux informations en ligne de façon ouverte et proactive. Nous publions des rapports biannuels sur la transparence depuis 2013. Nous publions également tous les trimestres un Rapport d’application des Standards de la communauté, qui inclut des données sur les mesures que nous avons prises contre le contenu non conforme sur Facebook, Messenger et Instagram. Nous avons la conviction qu’une plus grande transparence mène à davantage de responsabilisation.