新时代AI开发的安全挑战

在人工智能(AI)领域持续发展的同时,开发人员和数据科学家正沉浸在理解、构建和发布AI产品的浪潮中。然而,在兴奋和进步之际,至关重要的一点是不容忽视安全性这一关键方面,特别是要防范供应链攻击。

AI项目通常涉及使用各种模型、库、算法、预构建工具和软件包。虽然这些资源为实验和创新提供了巨大机会,但它们也存在潜在的安全风险。从公共存储库获取的代码组件可能会含有隐藏的后门或数据窃取者。此外,预构建模型和数据集可能会被篡改,导致应用程序出现意外和不当行为。

一个令人震惊的可能性是,一些AI模型本身可能包含恶意软件,如果这些模型的内容没有得到安全反序列化,便会被执行。即使像ChatGPT这样的热门插件也面临着关于安全性的审查。供应链攻击,困扰着软件开发世界的问题,也正在成为AI领域的威胁。将被篡改的库、模型或数据集整合到AI系统中可能导致严重后果,如工作站被篡改、入侵企业网络、数据误分类以及可能对用户造成伤害。

AI与安全的交汇

为了应对这些漏洞的需要,网络安全和人工智能初创公司正在崛起,专注于解决AI开发中的安全挑战。然而,并不仅仅是初创公司;这一领域的知名企业也开始注意到并努力实施安全措施。审计和检查机器学习项目以确保安全性,评估其安全性,并进行必要的测试现在被认为是开发过程的重要组成部分。

根据AI初创公司HiddenLayer的研究副总裁汤姆·邦纳的说法,许多AI领域的项目缺乏适当的安全措施。历来,AI项目始于研究项目或小型软件开发计划,通常缺乏严格的安全框架。开发人员和研究人员倾向于专注于解决数学问题并在没有进行适当安全测试或评估的情况下部署结果。

邦纳进一步强调了解决AI系统安全漏洞的紧迫性:“突然之间,人工智能和机器学习真的起飞了,每个人都想涉足其中。他们都去拿起所有来源于学术界的常见软件包,然后发现它们满是漏洞,困了漏洞。”

AI供应链中的漏洞

与软件供应链类似,AI供应链已成为寻求利用漏洞的犯罪分子的目标。他们使用错字略用来诱使开发人员使用正版库的恶意副本。结果,敏感数据和企业凭据可能会被窃取,运行受到攻击代码的服务器可能会被劫持,等等。

保护AI的首席AI安全研究员丹·麦金尼突出了确保AI模型开发中使用的供应链安全的重要性:“如果你考虑一下你在公司或组织中开设AI部门后会遭受黑客攻击的饼图,你会发现模型输入攻击只占极小一部分,尽管这是每个人讨论的焦点。绝大部分都是针对供应链的攻击 – 你用来建立模型的工具本身。”

警惕与保障的需求

为了说明潜在危险,HiddenLayer最近在Hugging Face提供的一个在线服务中发现了一个安全问题,Hugging Face是一个领先的AI模型平台。问题涉及将不安全的Pickle格式模型转换为更安全的Safetensors格式。HiddenLayer发现,转换过程中存在漏洞,允许任意代码执行,可能危及用户数据和资源库。

开发人员和组织要认识到安全的关键作用并优先考虑采取措施保护他们的AI项目。将软件供应链防御措施应用到机器学习系统开发中,对确保AI应用程序的完整性和保护至关重要。

常见问题解答 (FAQ)

The source of the article is from the blog newyorkpostgazette.com

Privacy policy
Contact