综合头条

当前位置/ 首页/ 综合头条/ 正文

英伟达和 Mistral 的新模型「Mistral-NeMo」为台式电脑带来企业级人工智能

导读 7 月 21 日消息:英伟达(Nvidia)和法国初创公司 Mistral AI 日前联合宣布推出一款新语言模型,旨在将强大的 AI 功能直接带到企...

7 月 21 日消息:英伟达(Nvidia)和法国初创公司 Mistral AI 日前联合宣布推出一款新语言模型,旨在将强大的 AI 功能直接带到企业桌面。这款名为 Mistral-NeMo的模型拥有 120 亿个参数和 128,000 个 Token 上下文窗口,是寻求在不依赖大量云资源的情况下实施 AI 解决方案的企业的强大工具。

Nvidia 应用深度学习研究副总裁 Bryan Catanzaro 在接受媒体采访时强调了该模型的可访问性和高效性。他说:「我们与 Mistral 共同训练了一款 120 亿参数的模型,并将其以 Apache 2.0 许可发布。我们对该模型在许多任务中的准确性非常满意。」

Nvidia 作为 GPU 制造和 AI 硬件领域的巨头,与欧洲 AI 新星 Mistral AI 的合作,标志着 AI 行业在企业解决方案方面的重大转变。通过专注于更小但功能强大的模型,这一合作旨在让更多企业能够接触到先进的 AI 技术。

在巨人之间的小人物:小型模型如何改变游戏规则

Catanzaro 进一步解释了小型模型的优势:「小型模型显然更易于获取和运行,商业模式也可以不同,因为人们可以在自己的系统上运行这些模型。实际上,这个模型可以在许多人已经拥有的 RTX GPU 上运行。」

这一发展正值 AI 行业的关键时刻。虽然目前大量关注集中在像 OpenAI 的 GPT-4 这样拥有数百亿参数的巨大模型上,但越来越多的人对能够在企业硬件上本地运行的高效模型产生兴趣。这一转变主要是因为数据隐私、低延迟需求以及更具成本效益的 AI 解决方案等因素。

Mistral-NeMo 的 128,000 个 Token 上下文窗口是其一大亮点,使该模型能够处理和理解比许多竞争对手更大的文本块。Catanzaro 表示:「我们认为长上下文能力对许多应用非常重要。如果它们可以避免微调,那就使得部署更加简单。」

长短之分:上下文在 AI 中的重要性

这一扩展的上下文窗口对处理长文档、复杂分析或复杂编码任务的企业非常有用。它可能消除频繁的上下文刷新需求,从而带来更连贯和一致的输出。

该模型的高效性和本地部署能力可能会吸引那些互联网连接有限或有严格数据隐私要求的企业。然而,Catanzaro 澄清了该模型的预期使用情况:「我认为更多是针对笔记本电脑和台式机,而不是智能手机。」

这种定位表明,虽然 Mistral-NeMo 将 AI 带到个人企业用户的身边,但它还没有达到移动设备部署的阶段。

行业分析师认为,这一发布可能会显著扰乱 AI 软件市场。Mistral-NeMo 的推出可能会改变企业 AI 部署的方式。通过提供一个可以在本地硬件上高效运行的模型,Nvidia 和 Mistral AI 正在解决企业在广泛采用 AI 时面临的许多问题,如数据隐私、延迟和高昂的云解决方案成本。

这一举措可能使资源有限的小企业也能利用以前只有大型企业才能使用的 AI 能力。然而,这一发展的真正影响将取决于模型在实际应用中的表现以及围绕它的工具和支持生态系统的发展。

该模型目前以 NVIDIA NIM 推理微服务的形式提供,并且很快将推出可下载版本。其 Apache 2.0 许可允许商业使用,这可能会加速其在企业中的采用。

民主化 AI:将智能带到每一个桌面的竞赛

随着各行业企业继续努力将 AI 整合到运营中,像 Mistral-NeMo 这样的模型代表了更高效、可部署的 AI 解决方案的趋势。是否会挑战大型云模型的主导地位还有待观察,但它无疑为企业中的 AI 集成开辟了新的可能性。

Catanzaro 在采访中以展望未来的声明总结道:「我们相信,这个模型代表了让 AI 对各类企业更可访问和实用的方向的重要一步。这不仅是关于模型的强大能力,还在于将这种能力直接交到可以用它来推动日常运营中创新和效率的人们手中。」

随着 AI 领域的不断发展,Mistral-NeMo 的发布标志着为企业提供更可访问、高效和强大的 AI 工具方面的重要里程碑。这将如何影响更广泛的 AI 生态系统还有待观察,但可以肯定的是:将 AI 能力更接近最终用户的竞赛正在升温,Nvidia 和 Mistral AI 已经在这一方向上迈出了大胆的一步。