建立信任是安全和负责任的人工智能模型的关键,Salesforce印度CEO表示

随着人工智能(AI)的重要性不断增长,建立信任成为确保大型语言模型(LLMs)的安全性和责任性的关键因素。Salesforce印度的CEO兼主席Arundhati Bhattacharya强调了在创建安全的AI模型和保护数据方面信任的重要性。

在印度加强对新AI模型发布的监管的同时,Bhattacharya强调了遵守政府规定和流程的必要性。Salesforce印度正在考虑建立一个符合政府要求并优先考虑合规性的公共部门AI倡议。

针对与AI相关的问题,Bhattacharya强调了Salesforce在AI模型达到最终阶段之前筛选和消除问题的承诺。这一优势源自Salesforce整合客户选择的AI模型并让其接受强大的信任层的方法。这种信任层确保他们的AI系统的任何输出都经过严格审查。

尽管目前政府的AI规定主要针对最终用户平台,Bhattacharya澄清了Salesforce作为云服务提供商,主要面向公司间互动而非个人消费者。通过允许客户携带自己的AI模型并创建一个信任层,Salesforce专注于数据安全和隐私保护。

为了履行对负责任AI的承诺,Salesforce推出了为企业AI设计的“爱因斯坦信任层”。这些功能的集合使公司能够通过将客户配置的数据蒙版和大幅增强对敏感信息的控制来受益于生成式AI。此外,从AI交互收集的审计跟踪和反馈数据被安全地存储在数据云中,提供便于报告和分析的易于访问性。

为了进一步增强AI的定制功能,Salesforce宣布推出Einstein 1工作室。这套低代码工具能够赋予管理员和开发人员定制Einstein Copilot(客户关系管理CRM的对话式AI助手)的能力,并将AI无缝嵌入各种应用程序,增强客户和员工体验。

通过优先考虑信任和合规性,Salesforce印度强调了建立安全和负责任的AI模型以保护数据并维护安全标准的重要性。

常见问题部分:

1. 大型语言模型(LLMs)的信任的重要性是什么?
– 建立信任对于确保大型语言模型的安全和责任至关重要。它有助于保护数据并促进安全的AI模型。

2. Salesforce印度如何优先考虑遵守政府规定?
– Salesforce印度正考虑建立一个符合政府要求并优先考虑合规性的公共部门倡议。他们强调遵守政府规定和流程的必要性。

3. Salesforce如何解决与AI相关的问题?
– Salesforce在AI模型达到最终阶段之前筛选和消除问题。他们整合客户选择的AI模型并让其接受一个强大的信任层,确保其AI系统的任何输出都经过严格审查。

4. Salesforce主要面向作为云服务提供商的是谁?
– Salesforce主要面向公司间互动而非个人消费者。他们专注于数据安全和隐私保护。

5. Salesforce推出的“爱因斯坦信任层”是什么?
– “爱因斯坦信任层”设计用于企业AI,并包括客户配置的数据蒙版和增强对敏感信息的控制等功能。它确保信任并使公司能够受益于生成式AI。

6. 爱因斯坦1工作室是什么?
– 爱因斯坦1工作室是Salesforce推出的一套低代码工具,它赋予管理员和开发人员定制Einstein Copilot(客户关系管理CRM的对话式AI助手)的能力,并在各种应用程序中无缝嵌入AI。

关键术语:

– 人工智能(AI):在机器中模拟人类智能的技术,使其能够像人类一样思考和学习。

– 大型语言模型(LLMs):经过大量文本数据训练的AI模型,用于产生类似于人类语言的内容。

– 合规性:遵守法律、规章和准则。

– 信任层:对AI模型的额外审核和安全措施,以确保其值得信赖和可靠。

– 数据安全和隐私:采取的措施,以防止数据被未经授权访问,确保隐私。

– 企业AI:为企业和组织设计的AI解决方案。

The source of the article is from the blog qhubo.com.ni

Privacy policy
Contact