Le Conseil de surveillance de Meta va statuer sur les images sexuelles générées par IA

Le Conseil de surveillance de Meta va statuer sur les images sexuelles générées par IA

Le Conseil de surveillance de Meta s'apprête à examiner une nouvelle fois les règles du réseau social concernant les contenus générés par intelligence artificielle. Ils ont accepté de se pencher sur deux affaires impliquant des images explicites de personnalités publiques créées par IA.

Bien que les règles de Meta interdisent déjà la nudité sur Facebook et Instagram, le Conseil a exprimé dans un communiqué son désir de vérifier si "les politiques de Meta et ses pratiques de mise en application sont efficaces pour gérer les images explicites générées par IA". Ces images, souvent qualifiées de "porno deepfake", ciblent principalement des célébrités féminines, des politiciennes et d'autres figures publiques et constituent une forme de harcèlement en ligne de plus en plus courante, provoquant un flot de propositions réglementaires. Avec ces deux affaires, le Conseil de surveillance pourrait inciter Meta à adopter de nouvelles règles pour combattre ce type de harcèlement sur sa plateforme.

Le Conseil a choisi de ne pas divulguer l'identité des deux personnalités publiques concernées par ces affaires, dans le but d'éviter toute aggravation du harcèlement, bien qu'il ait décrit les circonstances entourant chaque publication.

Dans une affaire, un utilisateur d'Instagram a partagé une image générée par IA représentant une femme indienne nue. Ce compte est connu pour ne publier que des images de femmes indiennes générées par IA. Bien que cette publication ait été signalée à Meta, le signalement a été clôturé après 48 heures sans avoir été examiné. L'utilisateur a contesté cette décision, mais l'appel a également été clos sans examen. Meta a finalement supprimé la publication après que l'utilisateur se soit tourné vers le Conseil de surveillance qui a accepté de traiter l'affaire.

La deuxième affaire concerne une publication sur Facebook dans un groupe dédié à l'art IA. La publication montrait "une image générée par IA d'une femme nue avec un homme lui touchant la poitrine". Cette femme était censée ressembler à "une figure publique américaine", dont le nom apparaissait également dans la légende de la publication. La publication a été automatiquement retirée car elle avait déjà été signalée et les systèmes internes de Meta avaient réussi à l'associer à la publication précédente. L'utilisateur a contesté la décision, mais l'appel a été "automatiquement clos". L'utilisateur a ensuite fait appel au Conseil de surveillance, qui a accepté d'examiner l'affaire.

Helle Thorning-Schmidt, co-présidente du Conseil de surveillance, a déclaré que le Conseil avait pris en charge ces deux affaires provenant de différents pays afin d'évaluer les éventuelles disparités dans l'application des politiques de Meta. "Nous savons que Meta modère le contenu plus rapidement et plus efficacement dans certains marchés et langues que dans d'autres," a-t-elle précisé. "En prenant un cas des États-Unis et un de l'Inde, nous voulons voir si Meta protège toutes les femmes de manière équitable à l'échelle mondiale."

Le Conseil de surveillance sollicite des commentaires du public pour les deux prochaines semaines et publiera sa décision dans les semaines à venir, accompagnée de recommandations politiques pour Meta. Un processus similaire concernant une vidéo trompeusement éditée de Joe Biden a récemment conduit Meta à marquer davantage de contenu généré par IA sur sa plateforme.

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.