英伟达发布DLSS 5,黄仁勋高呼图形学的GPT时刻来了

robot
摘要生成中

美东时间3月16日周一,英伟达在年度开发者大会GTC上正式发布DLSS 5,称这是自2018年实时光线追踪以来,该公司在计算机图形学领域的最重大突破:通过实时神经渲染模型,将像素注入“电影级”光照与材质细节,目标是在游戏中实现接近好莱坞视觉效果的可交互画面。

英伟达创始人兼CEO黄仁勋在GTC大会的讲话中将DLSS 5比作“图形学的 GPT 时刻”,意在强调生成式 AI 在视觉表达与艺术可控性之间达成的新平衡。

据英伟达介绍,DLSS 5将于今年秋季面向主流游戏推出,并已获得包括 Bethesda、CAPCOM、网易、腾讯、育碧等大型厂商的支持。

DLSS 5 可在实时 4K 下运行,能理解场景语义(人物、头发、皮肤次表面散射、布料光泽等)并把“物理感”注入每一帧,同时为开发者保留细致控制(强度、分级、蒙版等)。这意味着游戏画面不再只是基于规则的近似渲染,而是由训练好的模型在保证确定性的前提下进行实时增强。

DLSS 5 带来了什么

  • 实时神经渲染:DLSS 5 用一个端到端训练的 AI 模型,基于每帧的颜色与运动向量输入,生成带有光照与材质交互的像素结果,目标是在实时交互条件下接近离线影视级渲染的视觉效果。

  • 工业级可控性:与通用视频生成模型不同,该系统强调“可控且确定性强”,为游戏艺术家提供强度、色彩分级与局部蒙版等参数,确保画面改动在艺术设定范围内。

  • 广泛的厂商支持与首发游戏名单:英伟达在通告中列出多款支持或计划支持的作品,如“Starfield”、“Resident Evil Requiem”、“Assassin’s Creed Shadows”、“Hogwarts Legacy”等),并称包括大型一线厂商在内的合作伙伴已参与或测试集成。

技术细节与演进路径

DLSS 从最初的超采样/AI 上采样,到后来的帧生成(frame generation),一路演进到了现在把“材质与光照”也纳入 AI 学习对象的阶段。

英伟达指出,DLSS 4.5 已能生成大量像素并实现多倍帧生成(Dynamic Multi Frame Generation),而 DLSS 5 则在此基础上进一步将神经网络训练为理解场景语义与复杂光材质交互,从而在保证画面连贯性的同时,输出具备次表面散射、纤维反射等细腻表现的像素。对玩家而言,这意味着在相同或接近的渲染资源下,画面细节和真实感跃升;对开发者而言,则是新的美术与性能优化工具链。

英伟达强调,DLSS 5 会集成到现有的 Streamline 框架,与 DLSS、英伟达Reflex等共用),降低开发者适配成本,并支持在现有 RTX 平台上运行。不过,高质量表现仍将更依赖于高端 GPU 的算力与带宽。

风险提示及免责条款

        市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论