国家利用生成型人工智能进行网络攻击,引发对国家安全的关注

微软公开了一个令人震惊的消息,即与美国关系紧张的国家越来越多地使用生成型人工智能(AI)。该科技巨头透露,伊朗、朝鲜、俄罗斯和中国等对手正在利用微软和OpenAI开发的AI工具,针对美国发动大规模网络攻击。

虽然微软和OpenAI已经能够识别和挫败其中一些威胁,但该公司强调了公开暴露这些早期技术的必要性。网络安全专家警告称,在攻击性网络操作中使用生成型AI对国家安全构成重大威胁。

传统上,网络安全公司一直在利用机器学习进行防御。然而,由OpenAI的ChatGPT带头推动的大型语言模型(LLMs)的出现,加剧了防御者与恶意行为者之间的猫鼠游戏。对手国家越来越多地利用LLMs来增强他们在网络渗透和影响力操作方面的能力。

微软在其报告中强调了几个实例,其中包括禁用了各种组织的生成型AI账户和资产。这些组织包括朝鲜的网络间谍组织Kimsuky、伊朗的革命卫队、俄罗斯的GRU军事情报单位Fancy Bear,以及中国的网络间谍组织Aquatic Panda和Maverick Panda。

生成型AI在加强恶意社会工程方面的潜力尤其令人担忧。微软的报告警告说,AI技术支持的深度伪造和语音克隆可能会严重破坏民主进程,尤其是在50多个国家即将举行的选举中。

尽管OpenAI表示其目前的GPT-4模型在恶意网络安全任务方面的能力有限,但专家们预期在这个领域会有进一步的发展。批评者认为,在没有充分考虑安全问题的情况下发布大型语言模型是草率和不负责任的。一些网络安全专业人士敦促微软将重点放在加强LLMs的安全性上,而不是销售防御工具。

随着AI和LLMs所带来的威胁不断演变,它们有可能成为每个国家军事武器库中的强大武器。政府和科技企业优先发展安全的人工智能系统,并建立强大的防御策略以保障国家利益,这是非常重要的。

常见问题:

1. 微软透露了哪些关于某些国家使用生成型AI的情况?
微软透露伊朗、朝鲜、俄罗斯和中国等国正在利用微软和OpenAI开发的AI工具对美国发动大规模网络攻击。

2. 微软和OpenAI如何回应这些威胁?
微软和OpenAI已经能够识别和挫败其中一些威胁。然而,他们认为公开暴露这些早期技术非常重要。

3. 生成型AI在攻击性网络操作中存在什么问题?
网络安全专家警告称,在攻击性网络操作中使用生成型AI对国家安全构成重大威胁。

4. 什么是大型语言模型(LLMs)以及它们如何被使用?
大型语言模型(LLMs),如OpenAI的ChatGPT,被对手国家用来增强他们在网络渗透和影响力操作方面的能力。

5. 哪些组织的账户和资产因为生成型AI而被禁用?
微软的报告重点提到了禁用了朝鲜的Kimsuky、伊朗的革命卫队、俄罗斯的GRU军事情报单位Fancy Bear,以及中国的Aquatic Panda和Maverick Panda等组织的账户和资产。

6. 关于生成型AI和恶意社会工程方面存在什么问题?
该报告警告说,AI技术支持的深度伪造和语音克隆可能会破坏民主进程,特别是在即将到来的50多个国家的选举中。

7. 批评者对大型语言模型的发布持什么观点?
批评者认为,在没有充分考虑安全问题的情况下发布大型语言模型是草率和不负责任的。他们敦促微软将重点放在加强这些模型的安全性上。

8. 针对不断演变的AI和LLMs威胁,政府和科技公司应该优先考虑哪些事项?
政府和科技公司应该优先发展安全的人工智能系统,并建立强大的防御策略以保障国家利益。

The source of the article is from the blog yanoticias.es

Privacy policy
Contact