Nouvelles Procédures de Balisage du Contenu Généré par l’IA par Meta

Meta, le géant des médias sociaux, a récemment dévoilé ses projets d’instaurer un système de balisage pour le contenu généré par l’IA dès le mois prochain. De plus, la société prévoit de cesser de supprimer du contenu uniquement sur la base de sa politique de vidéos manipulées d’ici juillet. Cette chronologie permet aux utilisateurs de se familiariser avec le processus de divulgation avant que la société cesse de supprimer un plus petit sous-ensemble de contenus manipulés.

La décision d’introduire ces changements survient après que Meta a révélé en février qu’elle collaborait avec des partenaires industriels pour établir des normes d’identification du contenu généré par l’IA. La société a également reçu une recommandation de mettre à jour ses politiques de la part de la Commission de surveillance, une institution indépendante financée par une subvention de Meta.

La Commission de surveillance a souligné l’importance pour Meta de traiter ses politiques liées à l’IA sans délai, en particulier avec les élections à venir aux États-Unis et ailleurs en 2024.

Dans un article de blog, Monika Bickert, vice-présidente de la politique de contenu chez Meta, a exprimé son accord avec la perspective de la Commission de surveillance, déclarant que la transparence et des contextes supplémentaires sont désormais la méthode privilégiée pour aborder ce type de contenu. Les futurs balisages engloberont un éventail plus large de contenu en plus des contenus manipulés, conformément à la recommandation de la Commission de surveillance.

De plus, si des images générées ou altérées numériquement sont jugées susceptibles de tromper significativement le public sur des questions importantes, Meta ajoutera un balisage plus visible pour fournir aux utilisateurs des informations et un contexte supplémentaires. Cependant, le contenu créé avec l’IA qui viole d’autres politiques de Meta, y compris celles concernant l’ingérence électorale, l’intimidation et le harcèlement, ainsi que la violence et l’incitation, restera soumis à la suppression.

FAQ

Quels changements Meta met-il en place ?
Meta met en place un système de balisage pour le contenu généré par l’IA et révise sa politique de suppression du contenu vidéo manipulé.

Quand Meta commencera-t-il à utiliser le nouveau système de balisage ?
La mise en œuvre des balises de contenu généré par l’IA débutera le mois prochain.

Quel est le but du système de balisage ?
Le système de balisage vise à fournir aux utilisateurs une transparence et un contexte supplémentaires concernant la nature du contenu généré par l’IA.

Quand Meta arrêtera-t-il de supprimer du contenu uniquement sur la base de sa politique de vidéos manipulées ?
Meta prévoit de cesser de supprimer un plus petit sous-ensemble de contenus manipulés d’ici juillet.

Quel type de contenu les nouvelles balises couvriront-elles ?
Les balises incluront un éventail plus large de contenu au-delà des simples contenus manipulés, comme recommandé par la Commission de surveillance de Meta.

Tout le contenu généré par l’IA sera-t-il balisé ?
Tout le contenu généré par l’IA ne sera pas balisé. Meta ajoutera des balises uniquement aux contenus présentant un risque élevé de tromper matériellement le public sur des questions importantes.

Que se passe-t-il si le contenu généré par l’IA viole d’autres politiques de Meta ?
Si le contenu généré par l’IA viole les politiques de Meta en matière d’ingérence électorale, d’intimidation et de harcèlement, ou de violence et d’incitation, il sera tout de même soumis à la suppression.

La mise en place d’un système de balisage pour le contenu généré par l’IA par Meta reflète l’engagement de l’entreprise envers la transparence et la résolution des défis posés par l’IA dans les médias sociaux. En introduisant ce système de balisage, Meta vise à fournir aux utilisateurs des informations et un contexte supplémentaires sur la nature du contenu généré par l’IA. Cette initiative répond aux normes de l’industrie et aux recommandations de la Commission de surveillance de Meta.

Meta prévoit de commencer à utiliser le nouveau système de balisage le mois prochain, permettant aux utilisateurs de se familiariser avec le processus de divulgation avant que la société cesse de supprimer un plus petit sous-ensemble de contenus manipulés d’ici juillet. Cette chronologie assure une transition en douceur aussi bien pour les utilisateurs que pour la plateforme.

La décision de mettre à jour les politiques de Meta sur le contenu généré par l’IA a été influencée par les élections à venir aux États-Unis et ailleurs en 2024. La Commission de surveillance a souligné l’importance de traiter rapidement les politiques liées à l’IA pour garantir l’intégrité des élections et éviter la propagation d’informations trompeuses.

Les balises introduites par Meta couvriront un éventail plus large de contenu, allant au-delà des simples contenus manipulés, comme recommandé par la Commission de surveillance. Dans les cas où des images générées ou altérées numériquement présentent un risque élevé de tromper significativement le public sur des questions importantes, Meta ajoutera un balisage plus visible pour fournir aux utilisateurs des informations et un contexte supplémentaires.

Il est cependant important de noter que tout le contenu généré par l’IA ne sera pas balisé. Meta se concentrera sur le contenu présentant un risque élevé de tromper matériellement le public sur des questions importantes. De plus, le contenu généré par l’IA qui viole les politiques de Meta en matière d’ingérence électorale, d’intimidation et de harcèlement, ou de violence et d’incitation sera tout de même soumis à la suppression.

Ces changements opérés par Meta reflètent les efforts continus des plateformes de médias sociaux pour répondre aux défis émergents du paysage numérique. En mettant en place un système de balisage et en mettant à jour ses politiques, Meta adopte une approche proactive pour garantir l’utilisation responsable du contenu généré par l’IA et prévenir la désinformation sur sa plateforme.

Pour plus d’informations, vous pouvez consulter le rapport complet sur Thehill.com.

The source of the article is from the blog cheap-sound.com

Privacy policy
Contact