La Perception du Risque de l’Intelligence Artificielle: Une Étude sur les Divergences d’Opinions

L’intelligence artificielle (IA) suscite des inquiétudes quant à sa capacité à provoquer une catastrophe ou à causer un « effondrement irrécupérable », nourrissant ainsi un débat houleux. Mais pourquoi les experts et les superprévisionnistes ont-ils des points de vue si divergents sur la question ? Une étude révolutionnaire a cherché à découvrir les raisons derrière ces désaccords.

L’étude, menée par l’Institut de Recherche en Prévisions, a impliqué des experts en IA et autres risques existentiels, ainsi que des « superprévisionnistes » ayant un palmarès éprouvé dans la prédiction précise des événements mondiaux. Les chercheurs ont demandé aux deux groupes d’évaluer le danger posé par l’IA.

Les résultats ont révélé un contraste saisissant entre les deux groupes. Les experts ont manifesté un niveau de préoccupation beaucoup plus élevé et ont attribué des probabilités significativement plus élevées à la possibilité de catastrophe que les superprévisionnistes.

Pour approfondir les raisons de ce désaccord profond, les auteurs ont organisé une « collaboration contradictoire ». Ils ont demandé aux experts et aux superprévisionnistes de passer du temps à lire de nouveaux documents et à discuter avec des individus aux points de vue opposés, facilités par un modérateur. L’objectif était de déterminer si l’exposition à de nouvelles informations et à des contre-arguments influencerait les croyances de l’un ou l’autre groupe.

De plus, les chercheurs ont cherché à identifier les enjeux cruciaux qui pourraient potentiellement modifier les opinions des individus. Un de ces enjeux portait sur la question de savoir si un évaluateur en IA trouverait des preuves prouvant que l’IA serait capable de se répliquer de manière autonome, d’acquérir des ressources et d’éviter sa mise hors service avant 2030. Les sceptiques ont soutenu qu’une réponse positive à cette question renforcerait leurs inquiétudes, tandis que les pessimistes en IA ont affirmé qu’une réponse négative les rendrait moins appréhensifs.

Cet effort collaboratif a-t-il abouti à une convergence des opinions ? La réponse est non. Les deux groupes sont restés relativement inchangés dans leurs évaluations de la probabilité de catastrophe. Les pessimistes en IA ont légèrement ajusté leurs probabilités à la baisse, tandis que les optimistes ont effectué un ajustement minime à la hausse. Néanmoins, l’étude a fourni des informations fascinantes sur les origines de ces vues divergentes.

L’étude s’est principalement concentrée sur les désaccords entourant la capacité de l’IA à causer soit l’extinction de l’humanité, soit un effondrement irréversible de la société, avec le PIB mondial chutant en dessous de 1 billion de dollars ou la population mondiale tombant à moins de 1 million pendant une période prolongée. Alors qu’il existe de nombreux autres risques associés à l’IA, l’étude a choisi de se concentrer sur ces scénarios extrêmes et existentiels.

Fait intéressant, les opinions divergentes ne découlaient pas de variations dans l’accès à l’information ou à l’exposition à des points de vue dissidents. La collaboration contradictoire impliquait une exposition étendue à de nouvelles informations et à des perspectives contradictoires, pourtant les croyances des participants sont restées largement inchangées.

De plus, les disparités n’étaient pas principalement influencées par des prédictions à court terme sur le développement de l’IA. Les chercheurs ont observé que le crux le plus important, à savoir qu’un évaluateur en IA découvre des capacités extrêmement dangereuses avant 2030, a simplement réduit l’écart moyen entre les optimistes et les pessimistes de manière marginale.

Au contraire, l’étude a révélé que les vues divergentes sur l’avenir à long terme jouaient un rôle plus important dans la formation des opinions. Les optimistes croyaient généralement que l’atteinte d’une IA de niveau humain prendrait plus de temps que ne l’anticipaient les pessimistes. Ils ont soutenu que des percées fondamentales dans les méthodes d’apprentissage machine étaient nécessaires pour atteindre l’intelligence de niveau humain, y compris des avancées dans la robotique. Alors que l’IA logicielle peut répliquer le langage, les optimistes ont affirmé que les tâches physiques nécessitant des compétences de niveau humain posaient des défis considérables pour les machines.

L’une des découvertes les plus intrigantes de l’étude a été l’identification des « divergences de vision du monde fondamentales » comme une source significative de divergence. Ces désaccords tournent autour des opinions divergentes sur la question de savoir où repose le fardeau de la preuve dans le débat. Alors que les deux groupes ont convenu que des affirmations extraordinaires exigent des preuves substantielles, ils étaient en désaccord sur lesquelles de ces affirmations devraient être considérées comme extraordinaires. Les chercheurs ont noté que le fait de croire que l’IA pourrait conduire à l’extinction de l’humanité semblait extraordinaire lorsqu’on considère l’existence durable de l’humanité sur des centaines de milliers d’années.

En résumé, l’étude a mis en lumière les raisons profondes des désaccords sur les dangers posés par l’IA. Elle a souligné l’importance des divergences de vision du monde fondamentales, des perspectives à long terme et des défis de reconnaissance des affirmations extraordinaires. Bien que l’étude n’ait pas comblé le fossé dans les opinions, elle a fourni des informations précieuses sur les sources de division sur ce sujet controversé.

FAQ

The source of the article is from the blog publicsectortravel.org.uk

Privacy policy
Contact