新机构Vs传统媒体: 谁能把握人工智能的未来

人工智能(AI)是一项强大且迅速发展的技术,既有着巨大的机遇,也存在着显著的风险。随着社会对AI系统在决策过程中的日益依赖,监管和控制其使用以减少潜在的负面影响变得至关重要。本文讨论了与AI相关的挑战,包括信息误导、深度伪造以及偏见,并探讨了应对这些问题的多方面方法的必要性。

AI的驱动力来自复杂的算法,这些算法是具有无数参数的数学方程。这些算法每次运行都可以产生不同的结果,使它们的行为变得不可预测。然而,它们也有可能强化偏见和歧视。例如,亚马逊的一个算法根据历史数据分析工作申请,最终偏向选择男性候选人,进而在招聘过程中持续性别偏见。

为了解决这些问题,澳大利亚政府选择建立该国AI使用的广泛指南。专家强调了需要一个涵盖技术、培训、社会融合和法律的全面监管框架的重要性。在鼓励创新和减轻风险之间取得平衡至关重要。

澳大利亚政府借鉴欧盟的做法,旨在采取基于风险的策略进行AI监管。这意味着对高风险AI系统进行质量保证措施,例如自动驾驶车辆或医疗设备中使用的系统。正如UNSW人工智能研究所的教授Toby Walsh所强调的,这需要对AI监管做出复杂的回应,包括执行现有法规和制定新的法规以应对新兴风险。

责任也在于科技行业本身。在软件开发团队中进行批判性思维对于确保AI模型在负责任且不带偏见的数据集上训练至关重要。像Salesforce这样的公司已经推出了内部治理机制,例如“道德使用办公室”,以解决与AI偏见相关的问题。

然而,挑战依然存在。AI系统在很大程度上依赖数据,这些数据集的质量和完整性可以显著影响其结果。如悉尼大学商学院的教授Uri Gal所指出的,在AI系统中通常使用来自不同来源的数据,即使这些数据受版权保护或用于不同目的。这凸显了需要采取替代方法的重要性,例如创建合成数据,以减少偏见风险并确保代表性。

随着AI领域的不断发展,监管机构必须在促进创新和防范意外后果之间保持微妙的平衡。谨慎和保守的做法对于确保实现AI的益处同时最小化潜在危害至关重要。

常见问题

The source of the article is from the blog oinegro.com.br

Privacy policy
Contact