科技巨头正在推动先进的人工智能聊天机器人

数据需求巨大和AI聊天机器人需要的庞大计算能力,使得AI领域不断发展。加强学习是增强AI性能的关键过程,主要依赖于人类反馈来提高AI的响应质量。因此,向这些模型输入的数据越多,它们就变得越准确和可靠,从而减少“幻觉”或不正确输出的频率。

朝着“巨无霸主义”的天性迫使在学习过程中需要令人震惊的计算强度,并且后来需要满足数百万用户的需求。例如,截至3月份,ChatGPT声称有2亿活跃用户。提供这样的计算能力需要前所未有的硬件、软件和能量——标志着计算历史上的一个新时代。

创建和维护这些大规模的语言系统仅仅需要极少数公司巨头才能负担得起的财政承诺。据报道,技术巨头——Meta、微软、谷歌和亚马逊——仅在2004年的头四个月就在他们的技术基础设施上投资了高达320亿美元,以支持蓬勃发展的AI功能。

这在预计到2031年将膨胀至1万亿美元的市场中设立了一道难以逾越的进入障碍。减轻这种进入障碍已成为关注点,正在朝着显著减少人类干预数据调整需求的全新学习模型迈出了步伐。这些创新模型,比如欧洲初创公司Mistral和Anthropic的Claude,或Meta即将推出的Llama 3,据说还比由OpenAI和Google Gemini所使用的模型高达7倍节能。

最近,亚马逊的研究人员推出了一种称为模型放出(model disgorgement)的方法,用于清除AI模型中的不必要数据和错误,而无需从头开始。

然而,也许最具颠覆性的创新来自于开发更小、更专业和成本更低的AI系统。这些精简的模型能够在智能手机、相机和传感器中运行,从而让先进的AI功能对更小的企业和专业人士无需云端或互联网连接的情况下面向公众,更有效地解决了隐私和数据保护问题。

本周发布了微软的Phi-3和苹果的OpenELM,这是可以运行于较少计算资源上的语言模型系列,并且公开可用。微软的Phi-3系列,根据微软生成式人工智能研究副总裁塞巴斯蒂安·布贝克(Sébastien Bubeck)所说,着眼于如Phi-3 mini这样的易管理模型,作为与OpenAI合作的大型系统的一个可行替代方案。Phi-3的强大性能被归因于对训练数据的精心策划,可以确保质量和准确性。

苹果也持有类似的理念,设计OpenELM能够在iPhone等设备上实现性能与系统要求的平衡,允许用户直接在设备上进行本地操作。

Privacy policy
Contact