首页 小说推荐 实时讯息 百科知识 范文大全 经典语录
您的位置: 首页 > 实时讯息 >

英伟达发布Llama-3.1-Nemotron-Ultra-253B-v1模型

0次浏览     发布时间:2025-04-12 13:55:00    

IT之家 4 月 12 日消息,科技媒体 marktechpost 昨日(4 月 11 日)发布博文,报道称英伟达发布
Llama-3.1-Nemotron-Ultra-253B-v1
这款 2530 亿参数的大型语言模型在推理能力、架构效率和生产准备度上实现重大突破。

随着 AI 在数字基础设施中的普及,企业与开发者需在计算成本、性能与扩展性间寻找平衡。大型语言模型(LLM)的快速发展提升了自然语言理解和对话能力,但其庞大规模常导致效率低下,限制大规模部署。

英伟达最新发布的
Llama-3.1-Nemotron-Ultra-253B-v1
(简称 Nemotron Ultra)直面这一挑战,该模型基于 Meta 的 Llama-3.1-405B-Instruct 架构,专为商业和企业需求设计,支持从工具使用到多轮复杂指令执行等任务。

IT之家援引博文介绍,Nemotron Ultra 采用仅解码器的密集 Transformer 结构,通过神经架构搜索(NAS)算法优化,其创新之处在于采用跳跃注意力机制,在部分层中省略注意力模块或替换为简单线性层。

此外,前馈网络(FFN)融合技术将多层 FFN 合并为更宽但更少的层,大幅缩短推理时间,同时保持性能。模型支持 128K token 的上下文窗口,可处理长篇文本,适合高级 RAG 系统和多文档分析。

在部署效率上,Nemotron Ultra 也实现突破。它能在单 8xH100 节点上运行推理,显著降低数据中心成本,提升企业开发者的可及性。

英伟达通过多阶段后训练进一步优化模型,包括在代码生成、数学、对话和工具调用等任务上的监督微调,以及使用群体相对策略优化(GRPO)算法进行强化学习(RL)。这些步骤确保模型在基准测试中表现出色,并与人类交互偏好高度契合。

相关文章
未势能源申请燃料电池工况优化方法等专利,工况优化效率以及优化预测结果准确高
2025-05-31 10:44:00
在政府任职“最后一天”,马斯克“黑眼圈”引关注,本人解释:儿子干的
2025-05-31 09:48:00
南昌市通过创业培训和创业担保贷款支持释放创业就业“乘数效应”
2025-05-27 11:31:00
WWDC25前瞻:招聘信息确认苹果iOS 19将重构日历应用
2025-05-24 07:38:00
保时捷Boxster/Cayman今年10月停产,718“双雄”进入纯电时代
2025-05-22 19:35:00