人工智能行业内部人士要求透明度和告密者保护

AI巨头公司员工呼吁进行道德监督

在一次显著的团结展示中,来自领先人工智能公司的员工和校友,包括开拓者们如OpenAI、Google DeepMind和Anthropic,在一封公开信中倡导加强透明度,保护那些公开讨论潜在人工智能危险的人免受报复。在强调政府对这些公司缺乏强有力监管的同时,签署人强调往往让工人成为唯一能在公众面前追究责任的一方。

这封公开信出现在Vox的一篇调查报道之后,调查发现OpenAI试图通过严格的协议使最近离职的员工保持沉默,实际上是迫使他们把公司股份转让给公司或放弃。

OpenAI的首席执行官Sam Altman对这种强迫性条款感到尴尬,声称已将其从最近的离职文件中删除,尽管目前对所有员工是否适用存在歧义。在十三名签署人中,前OpenAI员工Jacob Hinton、William Saunders和Daniel Kokotajlo值得关注。

告密者的自白

特别是Daniel Kokotajlo因为对所谓的“通用人工智能”——可能超越人类智力的智能系统的负责发展失去信心而辞职。其他支持这封信的AI专家,如Geoffrey Hinton、Yoshua Bengio和Stuart Russell,表达了对缺乏有效政府监督和推动技术巨头向侵略性人工智能投资的资金激励的严重关切,他们附和称不受约束地追求强大人工智能系统可能传播错误信息,加剧不平等,并有可能导致人类失去控制自主系统的危机,引发灭绝的幻影。

建议的前进道路

签署人敦促人工智能公司采取四项基本原则,包括不对发表安全担忧的员工采取报复行为,建立匿名举报机制,培养坦诚批评的文化,并避免束缚员工进行公共讨论的保密协议。这种变革呼吁是在OpenAI的选择受到越来越严格的审查的背景下提出的,包括解散他们的“超对齐”安全团队和批评公司将重点放在“花哨产品”而非安全考虑上的知名人士的离职。

最重要的问题和答案

1. 为什么AI行业内部人士要求透明度和保护告密者?
AI行业内部人士要求透明度和保护告密者,以确保关于人工智能技术的伦理考量和安全顾虑得以公开讨论和解决。他们认为缺乏强有力的监管让员工成为公司实践的主要监督者,要求建立支持真实内部批评和公众问责的结构。

2. 透明度要求在AI行业面临的主要挑战是什么?
一个主要挑战是在知识产权和商业秘密保护与透明度的需求之间取得平衡。企业可能不愿透露可能让它们处于竞争劣势或面临法律或财务风险的信息。此外,营造一个员工可以安全举报滥用行为但又不会遭受报复的环境对于真正的透明度是困难但是必要的。

3. 与AI技术和监督有关的争议有哪些?
争议往往围绕AI在敏感领域的部署,例如监视、军事应用、有偏见的决策制定和岗位替代。人们也在讨论这些技术如何会传播错误信息、导致不平等,以及可能导致人类无法控制自主系统的情况。

增强AI透明度和保护告密者的优缺点

优点:
– 鼓励更加伦理的AI系统开发和部署。
– 透明度可以提高公众对AI技术的信任。
– 保护告密者可以揭示需要解决的问题,从而可能避免损害。
– 及早发现问题性AI实践对公司的长期成功有益,避免丑闻和法律问题。

缺点:
– 企业有风险暴露敏感或专有信息。
– 告密机制可能被滥用,导致不必要的警报或分散注意力。
– 过度监管可能抑制创新,减缓技术进步的速度。

相关链接:
以下是进一步阅读关于人工智能和伦理考虑的主要链接,假定相关内容的准确性:

OpenAI
Google DeepMind
Anthropic

提到的网站是涉及人工智能伦理和告密者保护讨论的各自AI组织的主页。它们提供有关公司工作、AI技术以及有关AI伦理问题立场的信息。

The source of the article is from the blog shakirabrasil.info

Privacy policy
Contact