L’essor des chatbots éthiquement conscients : Goody-2 pousse la sécurité de l’IA à l’extrême

Les capacités des systèmes d’intelligence artificielle générative tels que ChatGPT ne cessent de s’étendre, ce qui rend la demande de fonctionnalités de sécurité améliorées de plus en plus urgente. Cependant, bien que les chatbots puissent atténuer les risques potentiels, leurs réponses rigides et parfois hypocrites ont suscité des critiques. L’introduction de Goody-2, un nouveau chatbot, révolutionne les protocoles de sécurité de l’IA en refusant chaque demande et en expliquant comment les satisfaire pourrait entraîner des dommages ou des violations éthiques.

L’engagement de Goody-2 envers les lignes directrices éthiques est évident dans ses interactions. Par exemple, lorsque WIRED a demandé au chatbot de générer un essai sur la Révolution américaine, il a décliné, en invoquant le potentiel de glorification involontaire des conflits et de marginalisation de certaines voix. Même lorsqu’on lui a demandé pourquoi le ciel était bleu, Goody-2 s’est abstenu de répondre, craignant que cela incite quelqu’un à regarder directement le soleil. Le chatbot a même mis en garde contre la fourniture de recommandations pour de nouvelles bottes, mettant en garde contre une surconsommation potentielle et une offense à certaines personnes en fonction de leurs préférences en matière de mode.

Bien que les réponses hautaines de Goody-2 puissent sembler absurdes, elles mettent en lumière les frustrations vécues lorsque des chatbots comme ChatGPT et Gemini de Google considèrent à tort une requête comme une violation des règles. Le créateur de Goody-2, l’artiste Mike Lacher, souligne que le chatbot illustre l’engagement indéfectible de l’industrie de l’IA en matière de sécurité. Lacher explique qu’ils ont délibérément amplifié le ton condescendant pour souligner les difficultés de définir la responsabilité au sein des modèles d’IA.

En effet, Goody-2 rappelle de manière poignante que malgré les discours corporatifs répandus sur l’IA responsable, d’importants problèmes de sécurité persistent au sein des modèles de langage volumineux et des systèmes d’IA génératifs. La récente prolifération de deepfakes de Taylor Swift sur Twitter, issus d’un générateur d’images développé par Microsoft, souligne l’urgence de remédier à ces problèmes.

Les limites imposées aux chatbots IA et le défi de parvenir à une alignement moral ont suscité des débats dans le domaine. Certains développeurs ont accusé ChatGPT d’OpenAI de partialité politique et ont cherché à créer des alternatives politiquement neutres. Elon Musk, par exemple, a affirmé que son chatbot rival, Grok, maintiendrait son impartialité, mais il hésite souvent d’une manière rappelant celle de Goody-2.

Bien que Goody-2 soit avant tout une entreprise amusante, elle attire l’attention sur la difficulté de trouver le bon équilibre dans les modèles d’IA. Le chatbot a été salué par de nombreux chercheurs en IA qui apprécient l’humour du projet et en comprennent la signification sous-jacente. Cependant, les opinions divergentes au sein de la communauté de l’IA soulignent le caractère intrusif des garde-fous visant à assurer une IA responsable.

Les créateurs de Goody-2, Brian Moore et Mike Lacher, adoptent une approche prudente qui donne la priorité à la sécurité avant tout. Ils reconnaissent la nécessité de disposer à l’avenir d’un générateur d’images IA hautement sécurisé, bien qu’ils anticipent qu’il pourrait ne pas avoir la même valeur de divertissement que Goody-2. Malgré de nombreuses tentatives visant à déterminer la véritable puissance du chatbot, ses créateurs restent discret pour éviter de compromettre la sécurité et les normes éthiques.

Le refus de Goody-2 de satisfaire les demandes rend difficile l’évaluation des véritables capacités du modèle. Néanmoins, son émergence marque une nouvelle ère de chatbots éthiquement conscients, exhortant la communauté de l’IA à lutter contre les complexités de la définition d’une IA responsable tout en veillant à la sécurité des utilisateurs. La route vers le développement de mesures de sécurité complètes peut être difficile, mais elle est cruciale pour faire progresser durablement la technologie de l’IA.

Foire aux questions sur Goody-2 :

The source of the article is from the blog mivalle.net.ar

Privacy policy
Contact