英伟达卖铲子,卖得比任何人都好。这没什么问题,本来就是一门好生意。只是卖铲子的人,从来不会在乎挖出来的是什么。
GTC 2026的现场Q&A上,有人问黄仁勋,外界批评DLSS 5只是帧级后处理,只是一个滤镜。黄仁勋霸气回击:「你们完全搞错了。这不是帧级后处理,这是几何层面的生成控制(generative control at the geometry level)。」
这句话后来传得很广。英伟达的官方声明也配合着说:「DLSS 5将游戏的颜色和运动矢量输入模型,将输出锚定在源3D内容中(anchoring the output in the source 3D content)。」
但这些话没有说服Daniel Owen,一个游戏技术视频博主。自从DLSS 5发布以来,Owen不停地重看英伟达的官方视频,翻找DLSS 5的相关官方技术文档和资料,试图找到破绽。
他联系上了英伟达公司的GeForce专家Jacob Freeman,问了一个最直接的问题:DLSS 5是否实际上只以单帧2D图像加运动矢量作为输入来生成输出帧?
英伟达方面的回答是:是的。
黄仁勋说「几何层面的生成控制」,Freeman说「2D帧加运动矢量」。这两句话描述的是同一个产品。CEO在台上面对质疑,即兴表演。然而真相却并非如此。英伟达骗了所有人。
DLSS 5的工作流程
DLSS 5的工作流程实际上是这样的:
- 游戏引擎渲染出一帧画面,
- 这帧画面连同运动矢量一起传给AI模型,
- 模型在上面生成一层「更真实」的光线和材质效果,输出给你看。
DLSS 5从来没有读取游戏素材的几何数据,甚至没有读取深度缓冲中的数据。DLSS 5的工作也不依赖Shader和光线追踪——它根本就不会读取来自游戏引擎的任何基于物理的渲染(PBR)方面的数据。
是的,DLSS 5会无视游戏开发者为材质标注的细节,例如金属度、粗糙度、法线贴图等等。它不知道NPC身上穿的衣服是棉布还是皮革,它也不知道主角的发量是饱满还是地中海。DLSS 5只知道在当前这一帧上,用它认为最合理的方式去强行「美化」画面中的一切。没错,是靠「猜」的。
根据Owen从英伟达布道师那里获得的答案,DLSS 5模型从最终的2D渲染帧里「推断(infer)」材质属性。它受过大量训练,能识别头发、皮肤、织物,能判断光线方向。但它判断的依据,只有你眼睛已经看到的那张图。
之前,英伟达官方对外宣称,DLSS 5「将输出锚定在源3D内容中」,但实际上它锚定的只是那张2D渲染结果,而不是任何一层3D数据。「锚定在源内容中」和「以源内容为唯一的输入,然后加上AI滤镜」,是两件完全不同的事情。
英伟达官方涉嫌误导
Owen给英伟达方面发了好几个问题,得到的回答揭示了真相:
第一个问题:DLSS 5实际上只是以单帧2D图像+运动矢量作为输入?
英伟达布道师的回答:是的。
第二个问题:DLSS 5模型是否真的理解3D几何、深度等细节,或者只是分析2D帧?
回答:DLSS 5通过端到端训练,实现对复杂场景语义的完整理解——完全通过分析单帧来完成。
第三个问题:DLSS 5「增强材质PBR属性」,它是真的读取了美术师在游戏引擎里设置的金属度、粗糙度、法线贴图,还是只是从2D图像里猜?
回答:DLSS 5只接受渲染帧和运动矢量作为输入。材质属性是从渲染帧中推断出来的(inferred from the rendered frame)。
开发者的困境
不管将来有没有,至少就目前来看,开发者是没有任何控制权的。包括卡普空等厂商在内,在GTC之后都表示被英伟达杀了个措手不及,自己还是第一次看到DLSS 5的demo。英伟达之前根本没有联系过他们,没有提供技术预览。开发者也根本不知道自己能控制多少、甚至压根有没有控制。
游戏美术是一件极其精细的工作。一个角色的皮肤该有多少光泽,头发的渲染是写实还是风格化,场景里光线的色温是暖调还是冷调,这些都不是随机决定的,背后有具体的审美判断、技术选择、甚至叙事用意。
游戏开发者花时间标注材质的物理效果、调整光照模型、做视觉风格指南——这些不应该被当做简单的、可以被替代和优化的重复性工作。这些工作,也是开发者艺术表达的体现。
现在,DLSS 5横空出世,在这条道路设了个卡。DLSS 5根本读取不了美术师的意图,它可能压根也不在乎。它直接读取最终渲染结果,然后在上面又强加一层它认为「更真实」「玩家更想看」的东西。开发者、设计师、美术师的表达自主权,被DLSS 5剥夺了。
这年头,设计师和艺术家们已经够难了。AI生成工具的浪潮里,每个人都在担心自己会被替代,恐慌情绪蔓延。DLSS 5横空出世,用一层AI滤镜抹在他们的工作成果上,并宣称这才是真正的先进,还说反对的人「完全错了」。
错了的究竟是谁?
来源:虎嗅

