Meta et les médias truqués : des règles floues, une application bancale

Le Conseil de surveillance critique vivement la gestion par Meta de la modération des contenus générés par l’intelligence artificielle, pointant des pratiques inégales entre les plateformes du groupe et dénonçant un manque de clarté dans les politiques appliquées.
Tl;dr
- Le Conseil de surveillance de Meta dénonce un manque de cohérence dans l’application des règles contre les contenus manipulés.
- Les étiquettes d’avertissement sont appliquées de façon inégale, surtout pour les formats audio ou vidéo.
- Le Conseil de surveillance critique aussi la dépendance excessive de Meta à des partenaires externes pour détecter la désinformation.
Des critiques sur la politique de Meta face aux contenus manipulés
Le débat autour de la gestion des médias manipulés par Meta s’intensifie à nouveau. L’Oversight Board (ou Conseil de surveillance), un organe qui prend des décisions de modération de contenu sur la plateforme de réseaux sociaux Facebook, vient de publier une décision où il reproche une fois de plus à l’entreprise un manque de cohérence dans l’application de ses propres règles. « L’incapacité à appliquer systématiquement ses politiques est incohérente et injustifiable », déplore le conseil, reprenant quasiment mot pour mot une critique déjà formulée l’an dernier.
Des étiquettes insuffisantes et inégalement appliquées
Depuis plusieurs mois, Meta tente pourtant d’ajuster son approche. La société avait promis, après la diffusion massive d’une vidéo trompeuse concernant Joe Biden, d’étendre l’utilisation d’étiquettes signalant les contenus générés ou modifiés par l’IA. Sur le papier, ces labels sont censés alerter les utilisateurs en particulier lors de situations jugées « à haut risque ». Cependant, dans la pratique, leur application demeure partielle. Selon le conseil, toutes les occurrences d’un même contenu ne bénéficient pas du même traitement : certaines copies reçoivent une étiquette, d’autres passent entre les mailles du filet.
Une affaire emblématique venue du Kurdistan irakien
Un cas récent illustre ces failles : un post relayant un supposé enregistrement audio impliquant deux hommes politiques du Kurdistan irakien, évoquant la manipulation d’une future élection. Bien que signalé comme désinformation, le contenu n’a pas été examiné par un humain – une décision prise automatiquement par Meta. Par la suite, si certains extraits similaires ont reçu une étiquette, le post initial est resté sans annotation. Plus surprenant encore, la firme indique qu’elle n’est pas en mesure d’apposer automatiquement ces labels sur les formats audio ou vidéo – seuls les visuels statiques seraient concernés.
Lenteur et externalisation pointées du doigt
Pour le Conseil de surveillance, ce n’est là qu’un exemple parmi tant d’autres. Il regrette que Meta, fort de ses moyens considérables et de sa position de leader technologique, délègue fréquemment l’identification des manipulations médiatiques à des tiers – médias partenaires ou organismes dits « Trusted Partners ». Une telle externalisation interroge : « L’investissement dans des outils capables d’identifier et labelliser les médias modifiés à grande échelle devrait être prioritaire pour Meta », insiste l’Oversight Board.
En conclusion, le conseil recommande instamment que :
- L’étiquetage soit harmonisé pour tous les contenus identiques ou similaires.
- Les labels apparaissent dans la langue paramétrée par l’utilisateur sur Facebook, Instagram et Threads.
Meta dispose désormais de 60 jours pour répondre officiellement aux recommandations formulées par son propre organe consultatif.