繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

5090跑《黑神話》飆到200+幀,英偉達DLSS 4也用上Transformer了

2025-01-17 16:14

克雷西 發自 凹非寺

量子位 | 公眾號 QbitAI

現在,打個遊戲都用上Transformer了?!

老黃的DLSS進行了一波大升級,換上了基於Transformer的新大腦。

用上新模型之后,光線重建和超分辨率,效果都變得更細膩了。

而且DLSS 3中的幀生成功能也升級到了DLSS 4多幀生成,一次性就能生成最多3幀畫面,把《黑神話:悟空》的幀率拉昇到200+

同時,英偉達還上新了一大批AI渲染技術,像畫面渲染中的重要部件——着色器,里面也有了AI的一席之地。

這波也算是給遊戲開發者和玩家們送上了一份「新年大禮包」了。

英偉達這樣做的目的,當然有給50系顯卡帶貨的成分,但有了這些黑科技,遊戲玩家們的體驗也確實能有所提升。

「大力水手」全面「換腦」

就像開頭説的,被遊戲玩家們稱為「大力水手」的DLSS,迎來了一次全面更新。

(注:DLSS全稱Deep Learning Super Sampling,即深度學習超級採樣)

DLSS的核心思想,就是用AI運算來取代一部分的渲染計算,從而在加快畫面產生速度的同時提升畫質。

之前的DLSS,主要是通過卷積神經網絡(CNN)來實現,現在隨着50系顯卡的上線,「大力水手」也進行了「換腦」,CNN的工作被Transformer取代了

據介紹,這是Transformer模型首次在圖形領域的實時應用。

相比於過去的CNN,新的Transformer模型擁有兩倍的參數量,生成的像素穩定性更強、重影更少,還擁有更高的運動細節以及更平滑的邊緣。

DLSS的兩個主要功能——光線重建和超分辨率,都已經用上了Transformer

比如在《心靈殺手2》的光線重建場景,全新的DLSS4相比於上一代基於CNN的算法,柵欄呈現出的連續性明顯更強,兩個場景下的光線也更加真實了。

如果感覺變化不明顯,可以看下靜態畫面的對比:

在超分辨率功能當中,畫面細節相比之前的CNN也變得更加細膩。

另外新一代的幀生成功能也不再侷限於單幀,支持一次生成最多3幀畫面

比如在《賽博朋克2077》的場景中,相比於不開啟DLSS,DLSS4的多幀生成可以在延迟降低超過一半的情況下將幀率從27提升到248,比例將近8倍。

另外,新模型速度提高了40%,使用的VRAM減少了 30%,例如在《戰錘40K:暗潮》中,幀速率提高了10%,同時在4K最大設置下減少了400MB顯存佔用。

另外40系顯卡中的幀生成功能也進行了升級,同樣是在提高性能的同時減少了VRAM的使用。

目前DLSS 4已經提供了對75款遊戲和應用的Day 0支持,除了多幀生成是50系獨佔之外,基於Transformer的光線重建、超分辨率等功能同時支持40、30甚至20系顯卡

隨便劇透一下,《黑神話:悟空》也將在Day-0支持DLSS 4多幀生成

圖形渲染也用上AI了

與新版DLSS一起,英偉達還推出了一套神經渲染技術——NVIDIA RTX Kit

它可利用GPU中的Tensor Core,通過AI完成遊戲中的光線追蹤,並渲染具有複雜幾何形狀的場景,可以用高保真度渲染出複雜的開放世界,同時減少偽影、不穩定性並降低VRAM使用。

首先是RTX神經網絡着色器(Neural Shader),它把AI引入到了可編程着色器當中,包含了三大關鍵技術:

  • 神經網絡紋理壓縮(Neural Texture Compression ):用AI快速壓縮紋理,在相同視覺質量下消耗的VRAM或系統內存只有1/7;

  • 神經網絡材質(Neural Materials):用AI壓縮複雜着色器代碼,材質處理速度提高了5倍,可以以遊戲畫面的幀速率渲染電影質量的資源;

  • 神經網絡輻射緩存(Neural Radiance Cache):用AI學習多次反射間接照明,利用最初的一到兩次反射即可推斷出無限多次的反射,從而提升了路徑追蹤性能。

來看一組開啟Neural Materials前后的效果對比,開啟之后(分割線右側)畫面中的材質以及藍寶石的反光效果都變得更加真實。

還有像這樣的絲綢材質,Neural Materials開啟后絲綢的光澤被更好地展現,畫面也更細膩了。

對比確實很明顯,不過對於實時畫面渲染來講,這些還算是灑灑水,真正具有挑戰的,是人臉的渲染。

這就涉及到了RTX Kit中的另一個組件——RTX Neural Faces,它利用生成式AI來提高人臉的渲染質量。

Neural Faces採用簡單的光柵化臉部加上3D姿勢數據作為輸入,用AI模型來推斷臉部(而不是蠻力渲染)

Neural Faces背后的訓練數據包含了不同的角度、光照、情緒和遮擋條件下的數千個臉部圖像,可以創造出更柔和、更自然的外觀。

Neural Faces還專門針對皮膚和頭發專門設計了補充SDK

其中應用了次表面散射(SSS)技術,可以模擬光線穿透半透明材料表面並在內部散射的過程,從而更好地呈現皮膚質感。

還有線性掃描球體(LSS)加速基元,可以減少渲染頭發所需的幾何體數量,並使用球體代替三角形來更準確地適應頭發形狀。

用英偉達的話説,Neural Faces這項技術「跨越了人像渲染的恐怖谷」。

還有針對三角形光線追蹤的RTX Mega Geometry

在遊戲當中,三角形是構成畫面的重要元素,其數量也隨時間呈現出指數級增長,特別是虛幻引擎5推出新的幾何系統以來,遊戲中的三角形數量已經數以億計。

這對於幀畫面的構建而言是一大噩夢,想要保持足夠的幀速率更是難上加難。

Mega Geometry可以在GPU上批量智能更新三角形簇,從而減少CPU開銷並提高光線追蹤場景中的性能和圖像質量,可處理的三角形數量是之前的100倍。

據英偉達介紹,Mega Geometry可以「對項目中的每個三角形進行完全光線追蹤」。

眼見為實,一開始分割線左側的藤蔓未開啟Mega Geometry,非常沒有立體感,景深關係不對,光影也不符合物理規律,看上去就是一個字——假。

但開啟之后,藤蔓的立體感一下子就增強了,並且光影也更加真實,「貼圖感」消失了一大半。

Two More Things

除了畫面質量,延迟也是遊戲玩家們關心的重要參數,特別是在競技遊戲中,幾毫秒的輸入延迟可能就會決定勝負。

為此英偉達推出了Reflex 2,將上一代Reflex的低延迟模式與全新Frame Warp技術相結合,在將渲染幀發送至顯示器前,根據最新的鼠標輸入信號對其進行更新,可將PC延迟降低高達 75%。

爲了解決Frame Warp過程中的圖像撕裂問題,英偉達還開發了一種優化了延迟的預測渲染算法,該算法使用來自先前幀的視角、顏色和深度數據,對這些撕裂進行準確的圖像修復。

在上一屆CES上,英偉達展示的AI NPC技術(基於RTX ACE實現)也吸引了不少眼球。

通過ACE,不需要事先準備劇本,就能讓遊戲中的人物像真人一樣與玩家語音對話。

現在這項技術也迎來了升級,應用範圍擴展到了擁有自主意識的遊戲角色,比如AI隊友。

並且能力也更豐富,可以利用AI讓這些角色像真人玩家一樣感知、計劃和行動

另外,去年的AI NPC的對話內容需要傳輸到雲端處理;

現在50系顯卡運算能力大幅提升,同時英偉達還推出了小型語言模型,在算法和算力同時升級之后,對話內容的處理在本地也能完成了

《絕地求生 (PUBG: BATTLEGROUNDS)》中就會通過Ace服務和定製版Mistral小模型,在遊戲中提供一個像真人一樣的虛擬隊友。

它可以和你對話並密切配合你的動作,幫助標記出物品,甚至開車過來和你匯合。

國產遊戲方面,網易的《永劫無間 (NARAKA: BLADEPOINT)》PC版也將在今年年內發佈類似功能。

總之,工具老黃都已經給大家準備好,接下來的壓力給到遊戲公司這邊了。

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。