Les défis de la technologie d’intelligence artificielle de Google : Vers une approche plus réfléchie

Google a récemment pris des mesures pour limiter les capacités de son chatbot d’intelligence artificielle, Gemini, afin de contrer la désinformation électorale. Cette décision intervient dans un contexte où des millions de personnes se préparent à participer aux élections à travers le monde, y compris au Royaume-Uni et aux États-Unis. Google vise à répondre aux préoccupations en restreignant les réponses de Gemini à certaines questions électorales.

Auparavant, Google avait déjà annoncé en décembre que son chatbot précédent, Bard, ne répondrait pas aux questions liées aux élections présidentielles américaines. Désormais, ces restrictions s’étendent à Gemini. Au lieu de fournir une réponse aux questions sur le duel électoral à venir entre Donald Trump et Joe Biden, la réponse typique de Gemini serait : « J’apprends encore comment répondre à cette question. En attendant, essayez la recherche Google. »

Un porte-parole de Google a déclaré que la société restreint les types de questions liées aux élections auxquelles Gemini répondra, en prévision des nombreuses élections prévues dans le monde entier en 2024. Cette décision est motivée par un excès de prudence.

La technologie d’intelligence artificielle de Google a récemment été soumise à un examen minutieux après que son chatbot a généré des images historiques éthiquement diverses mais entièrement invraisemblables. Cela incluait des représentations de Nazis « diversifiés » et d’Amérindiens « vikings ». La controverse entourant ces images a poussé le PDG de Google, Sundar Pichai, à reconnaître que les réponses générées par le chatbot étaient « complètement inacceptables » et affichaient un biais, offensant ainsi les utilisateurs.

La fiabilité des chatbots d’IA est devenue une préoccupation croissante en raison de leur tendance à avoir du mal à discerner la vérité, produisant parfois des réponses incorrectes. Ce phénomène est appelé « hallucination ». De plus, il y a des inquiétudes plus larges concernant l’utilisation potentielle d’outils d’IA pour générer de fausses images ou des extraits audio étranges.

Une préoccupation concrète est la diffusion l’année dernière d’un extrait audio profondément faux, censé capturer le leader du Parti travailliste, Sir Keir Starmer, se livrant à des comportements abusifs envers le personnel du parti. Cependant, il a été prouvé que l’audio était fabriqué, alimentant ainsi davantage de doutes sur la crédibilité du contenu généré par l’IA.

Dans l’ensemble, la décision de Google d’imposer des restrictions à l’IA de Gemini constitue une mesure proactive pour lutter contre la propagation de la désinformation lors des périodes électorales cruciales. En reconnaissant les limites de l’IA et en identifiant le potentiel d’informations biaisées ou trompeuses, Google cherche à protéger l’intégrité des processus électoraux et à garantir aux utilisateurs l’accès à des sources fiables.

FAQ

The source of the article is from the blog trebujena.net

Privacy policy
Contact