OpenAI révise sa politique d’utilisation, élargit le champ des applications autorisées

OpenAI, le laboratoire de recherche en intelligence artificielle, a récemment mis à jour sa politique d’utilisation pour permettre l’utilisation de sa technologie dans les applications militaires et de guerre. Ce changement, remarqué pour la première fois par The Intercept, intervient alors qu’OpenAI cherche à clarifier et à affiner ses lignes directrices.

Auparavant, la politique d’utilisation d’OpenAI interdisait explicitement l’utilisation de sa technologie pour le « développement d’armes » et les « militaires et la guerre ». Cependant, la politique mise à jour restreint désormais seulement l’utilisation des outils d’OpenAI pour le développement d’armes, tout en permettant leur application dans les contextes militaires et de guerre.

Dans une déclaration à TechCrunch, OpenAI a souligné que sa politique continue de donner la priorité à la prévention des dommages et interdit l’utilisation de sa technologie pour nuire aux individus ou aux biens. La société a également noté qu’il existe des cas d’utilisation de sécurité nationale qui sont en accord avec sa mission, tels que la collaboration avec des organisations comme DARPA pour développer des outils de cybersécurité pour les infrastructures critiques.

La décision de réviser la politique d’utilisation reflète l’engagement d’OpenAI envers le développement éthique de l’IA et son déploiement responsable. En élargissant le champ des applications autorisées, l’organisation vise à favoriser les discussions et les collaborations qui peuvent contribuer à des avancées positives dans la technologie de l’IA.

Cependant, des préoccupations persistent quant aux conséquences potentielles de l’IA dans la guerre. Les experts de l’industrie ont depuis longtemps mis en garde contre les risques associés à une mauvaise utilisation de l’IA, la comparant au développement d’armes nucléaires avant la Seconde Guerre mondiale. Le lancement de puissantes technologies d’IA générative, telles que le ChatGPT d’OpenAI et le Bard de Google, a intensifié ces inquiétudes.

La politique d’utilisation révisée d’OpenAI témoigne d’une reconnaissance de la nécessité de clarté et de transparence dans l’approche des avantages potentiels et des risques de la technologie de l’IA. Alors que le domaine continue d’évoluer, il est crucial que les organisations participent activement au développement responsable de l’IA et considèrent les implications éthiques de leur travail.

The source of the article is from the blog meltyfan.es

Privacy policy
Contact