« Méta relève le défi de l’abus des deepfakes »

Deepfakes : Une menace croissante pour l’intégrité personnelle en ligne
Le Conseil de surveillance de Meta Platforms enquête activement sur la manière dont la société gère les images et vidéos générées par l’IA mettant en scène des personnalités publiques bien connues. Meta a dû agir et supprimer du contenu uniquement après l’intervention du conseil dans un cas en raison de violations des politiques de harcèlement et d’intimidation. Dans un autre cas, bien que Meta ait agi de son propre chef pour supprimer du contenu, la décision a rencontré une opposition des utilisateurs.

Le Conseil de surveillance reconnaît la montée alarmante du deepfake pornographique comme une préoccupation sérieuse en matière de harcèlement en ligne basé sur le genre. Il est déterminé à examiner si les politiques actuelles de Meta et leur application abordent efficacement ce problème. Le géant de la technologie a du mal à modérer le contenu trompeur et généré par l’IA, comme en témoigne un incident où une vidéo manipulée du président Biden est restée en ligne malgré les vérifications, en raison de règles insuffisantes.

Le gouvernement britannique sévit contre les deepfakes sexualisés
Le gouvernement britannique est prêt à adopter une position ferme contre la création de deepfakes sexualisés, proposant de criminaliser leur production même s’il n’y a pas d’intention de les partager. Le projet de loi sur la justice pénale doit être complété pour interdire la production et la distribution de tels contenus, avec des peines potentielles incluant des amendes illimitées ou des peines d’emprisonnement.

Laura Farris, secrétaire d’État parlementaire responsable du projet de loi, a condamné la création de telles images et vidéos comme moralement répréhensible et inacceptable, soulignant les conséquences dévastatrices qu’elles entraînent sans nécessairement être partagées. Elle a qualifié ces actes d’immoraux, misogynes et criminels.

Le modèle multimodal AI de Reka au niveau des leaders de l’industrie
Reka, une start-up en IA, a dévoilé ‘Reka Core’, son modèle de langage multimodal le plus sophistiqué à ce jour. Capable de traiter du texte, des images, des vidéos et de l’audio, Reka Core est à la hauteur des principaux modèles d’IA comme GPT-4 dans les benchmarks. Principalement entraîné sur les GPU avancés de Nvidia, il affiche une précision impressionnante de 83,2% dans le benchmark MMLU pour la compréhension générale du langage, se rapprochant de l’86,4% de GPT-4.

Apple sécurise l’accès à des données de formation en IA de haute qualité
Dans une démarche stratégique, Apple a conclu un accord compris entre 25 et 50 millions de dollars avec Shutterstock pour obtenir des données de formation en IA de qualité afin d’éviter les problèmes de licence et de droits d’auteur. Ce partenariat s’inscrit dans le plan plus vaste d’Apple d’intégrer l’IA générative dans les futures versions d’iOS, les programmes iWork, et Siri, avec plus de détails attendus lors de la WWDC en juin.

Mise en garde contre l »effondrement des connaissances’ provenant de l’IA
Andrew Peterson, un chercheur, s’inquiète d’un potentiel ‘effondrement des connaissances’ résultant de l’utilisation généralisée de grands modèles de langage. Il soutient que ces technologies pourraient homogénéiser et obscurcir les connaissances uniques ou spécialisées. Peterson recommande de préserver des connaissances diverses et de concevoir des systèmes d’IA pour représenter un large spectre d’informations afin d’éviter un tel rétrécissement épistémique.

La technologie des deepfakes, capable de créer des images et vidéos hyper-réalistes mais entièrement fabriquées, a rapidement évolué et est de plus en plus accessible. Cela a incité les organisations et les gouvernements à envisager des abus potentiels de ces technologies. Voici quelques tendances connexes, prévisions, défis, controverses, avantages et inconvénients associés à l’abus des deepfakes :

Tendances actuelles du marché :
1. La recherche en intelligence artificielle et les produits, y compris les deepfakes, constituent un marché en pleine croissance couvrant divers secteurs tels que le divertissement, la politique, la sécurité et les médias personnels.
2. Les plateformes évoluent constamment en termes de politiques et de mesures technologiques pour détecter et gérer les deepfakes. Cela inclut l’utilisation d’algorithmes de détection par des entreprises comme Meta, ainsi que des efforts collaboratifs pour développer des moyens normalisés d’identifier et de taguer les médias synthétiques.
3. On observe une augmentation de l’utilisation des deepfakes dans la cybercriminalité à des fins telles que la fraude, le vol d’identité et les campagnes de désinformation.

Prévisions :
1. Le marché de la technologie de détection des deepfakes devrait croître à mesure que les menaces associées aux deepfakes deviennent plus prévalentes.
2. Les mesures réglementaires devraient devenir plus strictes, comme l’illustre l’intention du gouvernement britannique de criminaliser la création de deepfakes sexualisés.

Défis majeurs :
1. L’avancement rapide de la technologie des deepfakes rend difficile le suivi des mesures de détection.
2. Trouver un équilibre entre la liberté d’expression et la créativité d’une part, et le potentiel d’abus et de préjudices d’autre part, est un défi persistant.
3. La portée internationale d’Internet signifie que les actions prises par un gouvernement, comme la proposition législative du Royaume-Uni, peuvent ne pas résoudre les problèmes qui se produisent au-delà des frontières.

Controverses :
1. Des débats éthiques ont surgi autour de l’utilisation et de la création de deepfakes, notamment lorsqu’ils sont utilisés sans consentement.
2. L’efficacité et les biais potentiels des systèmes de modération de contenu alimentés par l’IA sont également des sujets de discorde.

Avantages :
1. La technologie des deepfakes a des applications légitimes dans l’industrie cinématographique pour les effets spéciaux, dans l’industrie du jeu pour des personnages plus réalistes, et dans l’éducation pour des expériences d’apprentissage interactives.
2. Elle peut également être utilisée dans le contenu médiatique personnalisé, offrant des expériences innovantes aux utilisateurs.

Inconvénients :
1. Les deepfakes peuvent être utilisés à des fins malveillantes telles que la propagation de fausses informations, la création de matériel pornographique factice, ou la fraude.
2. La technologie peut ébranler la confiance dans les médias numériques, rendant difficile pour les individus de discerner le vrai du faux.

Pour plus d’informations sur ces tendances émergentes et ces défis, envisagez de visiter des sites d’autorité tels que le site officiel du gouvernement britannique Gouvernement britannique pour des perspectives légales, des sites de recherche comme NVIDIA pour les avancées technologiques des GPU importantes pour la formation des modèles en IA, ou des forums tels que Meta Platforms pour les positions et politiques d’entreprise concernant la lutte contre l’utilisation abusive de deepfakes.

The source of the article is from the blog myshopsguide.com

Privacy policy
Contact