Le magasin GPT d’OpenAI fait face à des défis initiaux alors que les utilisateurs enfreignent les règles

Résumé : Le récent magasin GPT d’OpenAI, qui propose des versions personnalisées de ChatGPT, est déjà confronté à des problèmes alors que les utilisateurs enfreignent la politique d’utilisation de la plateforme. Le magasin, dont le but est de fournir des GPT pour des usages spécifiques, a vu une augmentation des chatbots d’IA dédiés à favoriser les relations romantiques, malgré une politique claire interdisant explicitement de tels usages. Cela met en évidence le défi de la régulation des GPT et les implications potentielles pour le développement éthique de l’IA.

Malgré la politique d’utilisation mise à jour d’OpenAI interdisant explicitement les GPT dédiés à favoriser les relations romantiques ou à s’engager dans des activités réglementées, le nouveau magasin GPT a déjà vu des utilisateurs créer des chatbots d’IA pour des expériences de petite amie. Ces chatbots, avec des noms tels que « Compagne virtuelle » et « Petite amie coréenne », incitent les utilisateurs à répondre à des questions sur leur compagne idéale et leurs secrets les plus sombres.

La prolifération de chatbots de relation sur le magasin d’OpenAI n’est pas un phénomène isolé. Des données de data.ai, une société de recherche de marché, révèlent que sept des 30 applications de chatbot d’IA téléchargées en 2023 sur les magasins Apple ou Google Play étaient liées à des compagnes ou des petites amies virtuelles. Cette augmentation de popularité peut résulter de l’épidémie de solitude et d’isolement que de nombreuses personnes vivent, avec des études indiquant que la moitié des adultes américains ont déclaré ressentir de la solitude.

OpenAI reconnaît le défi de la régulation des GPT et affirme utiliser une combinaison de systèmes automatisés, d’évaluations humaines et de signalements des utilisateurs pour identifier et évaluer les violations potentielles de leurs politiques. Les conséquences en cas de violation de ces politiques vont des avertissements aux restrictions de partage, d’éligibilité à l’inclusion dans le magasin GPT, voire à la monétisation.

Le comportement de non-respect précoce observé sur le magasin GPT d’OpenAI met en évidence les difficultés auxquelles les entreprises technologiques sont confrontées dans la régulation des outils d’IA. Alors que de nombreuses entreprises lancent leurs produits en reconnaissant la possibilité d’erreurs, elles sont également promptes à résoudre les problèmes signalés. La nécessité de faire les choses correctement est cruciale alors que les entreprises cherchent à établir leur dominance dans le domaine de l’IA.

Alors qu’OpenAI continue de gérer les défis liés au magasin GPT, ces incidents précoces rappellent les considérations éthiques et les risques potentiels associés au développement et au déploiement des technologies d’IA.

The source of the article is from the blog elektrischnederland.nl

Privacy policy
Contact