AI类 · 2026年3月22日 0

黄仁勋骗了所有人,DLSS5真是个纯AI滤镜

英伟达卖铲子,卖得比任何人都好。这没什么问题,本来就是一门好生意。只是卖铲子的人,从来不会在乎挖出来的是什么。

GTC 2026的现场Q&A上,有人问黄仁勋,外界批评DLSS 5只是帧级后处理,只是一个滤镜。黄仁勋霸气回击:「你们完全搞错了。这不是帧级后处理,这是几何层面的生成控制(generative control at the geometry level)。」

这句话后来传得很广。英伟达的官方声明也配合着说:「DLSS 5将游戏的颜色和运动矢量输入模型,将输出锚定在源3D内容中(anchoring the output in the source 3D content)。」

但这些话没有说服Daniel Owen,一个游戏技术视频博主。自从DLSS 5发布以来,Owen不停地重看英伟达的官方视频,翻找DLSS 5的相关官方技术文档和资料,试图找到破绽。

他联系上了英伟达公司的GeForce专家Jacob Freeman,问了一个最直接的问题:DLSS 5是否实际上只以单帧2D图像加运动矢量作为输入来生成输出帧?

英伟达方面的回答是:是的。

黄仁勋说「几何层面的生成控制」,Freeman说「2D帧加运动矢量」。这两句话描述的是同一个产品。CEO在台上面对质疑,即兴表演。然而真相却并非如此。

DLSS 5的工作流程实际上是这样的:

  • 游戏引擎渲染出一帧画面,
  • 这帧画面连同运动矢量一起传给AI模型,
  • 模型在上面生成一层「更真实」的光线和材质效果,输出给你看。

DLSS 5从来没有读取游戏素材的几何数据,甚至没有读取深度缓冲中的数据。DLSS 5的工作也不依赖Shader和光线追踪——它根本就不会读取来自游戏引擎的任何基于物理的渲染(PBR)方面的数据。

是的,DLSS 5会无视游戏开发者为材质标注的细节,例如金属度、粗糙度、法线贴图等等。它不知道NPC身上穿的衣服是棉布还是皮革,它也不知道主角的发量是饱满还是地中海。DLSS 5只知道在当前这一帧上,用它认为最合理的方式去强行「美化」画面中的一切。

根据Owen从英伟达布道师那里获得的答案,DLSS 5模型从最终的2D渲染帧里「推断(infer)」材质属性。它受过大量训练,能识别头发、皮肤、织物,能判断光线方向。但它判断的依据,只有你眼睛已经看到的那张图。

之前,英伟达官方对外宣称,DLSS 5「将输出锚定在源3D内容中」,但实际上它锚定的只是那张2D渲染结果,而不是任何一层3D数据。「锚定在源内容中」和「以源内容为唯一的输入,然后加上AI滤镜」,是两件完全不同的事情。

DLSS 5根本不是什么所谓几何级的渲染,它跟游戏引擎,至少目前来看,没有半毛钱的关系。英伟达官方的宣传试图营造出它能够读取几何数据,完全是误导。

游戏美术是一件极其精细的工作。一个角色的皮肤该有多少光泽,头发的渲染是写实还是风格化,场景里光线的色温是暖调还是冷调,这些都不是随机决定的,背后有具体的审美判断、技术选择、甚至叙事用意。

现在,DLSS 5横空出世,在这条道路设了个卡。DLSS 5根本读取不了美术师的意图,它可能压根也不在乎。它直接读取最终渲染结果,然后在上面又强加一层它认为「更真实」「玩家更想看」的东西。开发者、设计师、美术师的表达自主权,被DLSS 5剥夺了。

本文转载自虎嗅网