1月3日,人工智能(AI)公司赛轮思(Cerence AI)宣布与英伟达(NVIDIA)扩大合作,以提升其CaLLM™系列语言模型的功能,包括其基于云的Cerence Automotive大型语言模型(CaLLM)和CaLLM Edge嵌入式小型语言模型。通过此次合作,CaLLM由端到端、云原生软件平台NVIDIA AI Enterprise 赋能,而部分CaLLM Edge则由NVIDIA DRIVE AGX Orin提供支持。
图片来源:赛轮思
将代理框架与云端和嵌入式形式的车内对话相集成需要综合、跨学科的努力,以及结合硬件、软件和用户体验领域的专业知识。与英伟达硬件和软件工程师合作,赛轮思增强了其满足生产时间表和将汽车生成式AI创新产品化的能力。具体来说,赛轮思利用NVIDIA AI Enterprise软件平台(包括NVIDIA TensorRT-LLM和NVIDIA NeMo(用于构建、定制和部署生成式AI应用程序的端到端框架)),赛轮加速了CaLLM的开发和部署。因此,赛轮思优化并定制了其CaLLM系列模型,以:
在英伟达加速计算和SoC上提供更快的车载助手性能
开发针对汽车优化的NVIDIA NeMo Guardrails部署,帮助确保由Cerence驱动的系统能够处理车内交互的细微差别
通过NVIDIA DRIVE AGX Orin在CaLLM Edge上实现和优化代理架构,帮助推进下一代车载用户体验
总体而言,此次与英伟达的扩大合作将为赛轮思提供可扩展、可靠的工具和资源,以便与汽车制造商客户合作开发下一代用户体验。这反过来又有助于丰富驾驶体验,旨在提供先进的性能、更低的延迟、增强的隐私和安全性,以及针对恶意或不必要的交互的强大保护。
赛轮思产品与技术执行副总裁Nils Schanz表示:“通过优化CaLLM系列语言模型的性能,我们为汽车制造商客户节省了成本并提高了性能,这些客户正在迅速为他们的驾驶员部署生成式AI解决方案。随着我们以CaLLM为基础推进下一代平台,这些先进功能将为驾驶员提供更快、更可靠的互动,提高他们在道路上的安全性、乐趣和效率。”
英伟达汽车业务副总裁Rishi Dhall表示:“大型语言模型提供了大量全新用户体验,但规模和部署的复杂性可能会使开发人员难以将AI驱动的解决方案交到终端用户手中。通过此次扩大合作,赛轮思正在部署先进的NVIDIA AI和加速计算技术,以优化其LLM开发和部署。”
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com