請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

用AI即時處理的黃仁勳92分鐘CES演講全文,你還不分享與收藏嗎?

Knowing

發布於 2025年01月07日09:00 • 何渝婷

台灣時間2025年1月7日上午10:30(當地時間1月6日下午6點30分),NVIDIA創辦人黃仁勳,在拉斯維加斯2025國際消費電子展(CES 2025)現場,發表開主題演講。

經AI處理的黃仁勳CES演講速記內容全文如下,並經由編輯簡要修改:

歡迎來到CES,你們對來到拉斯維加斯感到興奮嗎?你喜歡我的夾克嗎?

女士們先生們,歡迎來到NVIDIA。你的洞察力,我們的數位孿生體,他在這裡所擁有的一切都是由AI生成的,這是一段不平凡的旅程,不平凡的一年。而且,它始於1993年,使用NV 1。我們想要製造能夠做普通電腦無法做的事情,而NVIDIA使你的電腦中有一個遊戲機成為可能。

我們的編程架構被稱為Uda,直到不久之後才有了字母C,但是Uda統一設備架構和Uda的第一個開發人員以及我參與開發的第一個應用程式是SEGA的虛擬戰鬥機。六年後,我們在1999年發明了可編程GPU,並開始了20多年令人難以置信的GPU處理器的驚人進步,它使現代電腦圖形學成為可能。

30年後,SEGA的虛擬飛行,完全電影化,這是即將到來的新虛擬戰鬥機項目,我就是等不及了。六年之後,也就是在1999年之後的六年,我們發明了CUDA,這樣我們就可以解釋或表達我們的GPU的可編程性,從而獲得豐富的算法集,從而從中受益。CUDA最初很難解釋,花了幾年時間。實際上,大約花了六年時間。

大約六年之後,2012年,Alex krizhevsky Ilya server和Jeff Hinton發現了CUDA,用它來處理Alexnet,剩下的就是歷史了。自從感知AI開始以來,AI一直以驚人的速度發展,我們現在可以理解圖像、文字和聲音來生成AI,我們可以生成圖像、文本和聲音,現在是能夠感知、推理、計劃和行動的代理AI。然後是下一階段,其中一些我們今晚將討論,即物理AI 2012。

現在,神奇地在2018年,發生了一件非常不可思議的事情。Google的變形金剛以Bert的身份發表,AI的世界真正起飛了。如你所知,變形金剛完全改變了人工智慧的格局。事實上,它完全改變了運算的格局,我們正確地認識到,AI不僅僅是一個具有新商業機會的新應用程式。但更重要的是,AI機器學習由變壓器啓用,將從根本上改變運算工作的方式。

今天,運算在每一層都發生了革命性的變化,從運行在CPU上的手動編碼指令到創建人類使用的軟體工具,我們現在有了創建和優化在GPU上處理並創建人工智慧的神經網路的機器學習,技術堆疊的每一層都已完全改變。

僅僅12年就發生了令人難以置信的轉變,現在我們可以理解幾乎任何模態的訊息。你肯定見過文字、圖像、聲音之類的東西,但我們不僅可以理解這些,我們可以理解氨基酸,我們可以理解物理學,我們可以理解它們,我們可以翻譯它們並生成它們,應用程式是完全無窮無盡的。

實際上,你在那裡看到的幾乎任何AI應用程式,我從什麼模態中學到的輸入是什麼模態的訊息翻譯成什麼模態,生成的訊息是什麼模態。如果你問這三個基本問題,幾乎每一個應用程式都可以被推斷出來。因此,當您看到一個又一個以AI驅動AI原生為核心的應用程式時,這個基本概念就在那裡。

機器學習已經改變了每個應用程序的建構方式、運算方式以及未來的可能性。GPUs gforce在很多方面都很好,所有這些與AI有關的都是GeForce建造的房子,GeForce使AI能夠接觸到大眾。現在,AI正在回歸GeForce。沒有AI,你無法做很多事情,現在讓我給你看一些。

這就是真正的電腦圖形。

沒有電腦圖形研究員?沒有哪個電腦科學家會告訴你,在這一點上我們可以光線追蹤每一個像素,光線追蹤是光的模擬,你看到的幾何圖形數量絕對瘋狂。如果沒有人工智慧,這是不可能的。我們做了兩件基本的事情。當然,我們使用可編程的著色和光線追蹤加速度來產生令人難以置信的美麗像素。

但是,我們必須人工智慧條件,受那個像素的控制,才能生成一大堆其他像素,它不僅能夠在空間上生成其他像素,因為它知道顏色應該是什麼,它已經在NVIDIA的超級電腦上訓練過。所以在GPU上運行的神經網路可以推斷和預測我們沒有渲染的像素?我們不僅可以這樣做,它被稱為DLSS,最新一代的DLSS還可以生成超越幀的內容。

它可以預測未來,為我們運算的每一幀額外生成三幀,你所看到的,如果我們只說你所看到的四幀,因為我們將渲染一幀並生成三幀。如果我說四幀全高清為4k,即3300萬像素左右,我們只計算了兩千三百萬像素。我們可以使用可編程著色器和光線追蹤引擎進行運算,運算200萬像素並讓AI預測所有其他33個像素,這絕對是一個奇蹟。

因此,我們能夠呈現令人難以置信的高性能,因為AI所做的運算量要少得多。當然,需要大量的培訓才能產生這種效果,但是一旦你訓練了它,生成就非常高效。所以這是人工智慧令人難以置信的能力之一。這就是為什麼有這麼多令人驚奇的事情正在發生,我們使用了GeForce來啓用人工智慧,現在人工智慧正在徹底改變GeForce。今天,我們宣布我們的下一代,RTX Blackwell家族,讓我們來看看。

這是我們全新的GeForce RTX系列。Blackwell架構,GPU是一隻野獸,擁有920億個電晶體,4000個TOPS,4 petaflops的AI,比上一代Ada高出三倍,並且我們需要所有這些來生成我展示給你的像素,380射線追蹤teraflops,這樣我們就可以為我們需要的像素進行運算。

當然,125個著色器teraflops,實際上有一個併發的著色器teraflops以及一個性能相等的整數單元,所以兩個雙著色器,一個用於浮點,一個用於整數G7記憶體,從每秒微米1.8 TB,是我們上一代的性能的兩倍。

我們現在能夠將AI工作負載與電腦圖形工作負載混合在一起,這一代的驚人之處之一是可編程著色器現在也能夠處理神經網絡。

所以著色器能夠攜帶這些神經網絡。因此,我們發明了神經紋理壓縮和神經材料著色。因此,你會得到這些驚人美麗的圖像,這些圖像只有通過使用AI來學習紋理和壓縮算法才能實現,因此會得到非凡的效果。好的,這是一架全新的RTX Blackwell 59。現在,即使是機械設計也是一個奇蹟,看看這個,它有兩個風扇。

所以問題是,顯卡在哪裡?真的有這麼大嗎?電壓調節設計是最先進的,令人難以置信的設計,工程團隊做得很好。

好的,這就是速度和回饋。那麼它的比較呢?好的,這是RTX 4090,它是1599美元。這是你可能做的最好的投資之一。你把它帶回家,在你價值10000美元的個人電腦娛樂指揮中心,對嗎?

當你離開時,你會鎖定它,這是現代家庭影院。這是完美的感知。現在以1500美元,99美分,你可以升級它並將其渦輪增壓。好吧,現在有了Blackwell家族 。

我們成功地將這些巨大的性能GPU放進了一台筆記型電腦,沒有人工智慧你是做不到的,原因是我們使用特斯拉核心的像素生成了大部分像素。

因此,我們只對需要的像素進行光線追蹤,並使用我們擁有的所有其他像素進行人工智慧生成,因此,能源效率的數量就在圖表之外。電腦圖形學的未來是神經渲染,即人工智慧和電腦圖形學的融合,真正令人驚奇的是這是一個令人驚訝的動力學基調。

GeForce給世界帶來了AI,民主化了AI。現在AI回來了,徹底改變了geforce,讓我們談談人工智慧。

讓我們談談AI,這個產業正在追逐並競相實現規模智慧、人工智慧,而規模法則是一個強大的模型。這是一種經驗法則,已經被研究人員和產業經過幾代人的觀察和證明。

而縮放定律表明,你擁有的數據越多,你擁有的訓練數據就越多,你擁有的模型就越大,你應用的運算就越多,因此,你的模型就會變得更有效或更有能力。因此,比例定律仍在繼續。

真正令人驚嘆的是,網路每年產生的數據量是去年的兩倍,我認為在接下來的幾年裡,人類將會產生更多的數據,比人類從一開始就產生的數據還要多。因此,我們仍在產生巨大的數據量,並且它正在多模態影片、圖像和聲音。所有這些數據都可以用來訓練基礎知識,即AI的基礎知識。

但實際上,現在還出現了另外兩個縮放定律,這有點直觀。縮放定律,訓練後的縮放定律使用技術,如強化學習、人類回饋等技術。基本上,AI產生並生成答案。基於人類的查詢,人類當然會給出回饋,這比這複雜得多。

但是具有相當數量的高品質提示的強化學習系統使AI不斷完善其技能,它可以針對特定領域微調其技能,並更好地解決數學問題,更擅長推理等等。因此,這基本上就像在你畢業後有一位導師或教練給你回饋一樣。

因此,你得到了測試,得到了回饋,提高了自己。我們也有強化學習的人工回饋,並且有合成數據生成,如果你願意的話,這些技巧很類似於自我練習,像是一個特定問題的答案,一直繼續嘗試,直到你做對了。因此,一個AI可能會面臨一個非常複雜和困難的問題,這個問題在功能上是可驗證的。

並且有一個我們理解的答案,也許是證明一個定理,也許是解決一個幾何問題。因此,這些問題將導致AI產生答案,使用強化學習,你會學習如何提高自己,這就是所謂的崗位培訓。崗位培訓需要大量的運算,但最終結果產生了令人難以置信的模型,我們現在有了第三個尺度定律,這第三個尺度定律必須處理所謂的測試時間尺度。

測試時間擴展基本上是在你被使用時,當你使用AI時,AI現在能夠應用不同的資源分配,而不是改進其參數。

現在,它專注於決定使用多少運算量來產生它想要產生的答案,推理是思考這個問題的一種方式,長時間思考是一種思考這個問題的方式,而不是直接推理或一次性答案,你可能會對此進行推理,你可以把問題分成多個步驟。

你可能會產生多個想法,並評估你的AI系統將評估你應該產生的想法中哪一個是最好的,也許它一步一步地解決問題,以此類推,所以現在測試時間縮放已被證明非常有效。

你正在觀察這一系列的技術,所有這些縮放規律都隨著我們看到令人難以置信的成就從ChatGPT到零,從1到0到3而出現。

現在是Gemini Pro,所有這些系統都在逐步經歷預培訓到培訓後,測試時間縮放的旅程。嗯,我們所需的運算量當然是令人難以置信的,我們希望,事實上,我們希望社會有能力擴展運算量,以產生越來越多新穎和更好的智慧。

當然,人工智慧是我們擁有的最有價值的資產,它可以應用於解決許多非常具有挑戰性的問題。因此,縮放法推動了對NVIDIA的巨大需求,運算正在推動對這種我們稱之為Blackwell的令人難以置信的晶片的巨大需求,讓我們來看看Blackwell。

好吧!它看起來像什麼,令人難以置信。首先,現在每個雲端服務提供商都有一些系統啓動並運行。

我們這裡有大約15個電腦製造商,它正在製作大約200種不同的配置,它們是液冷式的x86 NVIDIA灰色CPU版本,NVLink 36 x兩個NVLink 72x一個完全不同類型的系統,這樣我們就可以容納世界上幾乎每個數據中心。

雖然這些系統目前在大約45個工廠中製造,但它告訴你人工智慧的普及程度以及該產業在這種新運算模型中的人工智慧程度。好吧!我們如此努力的原因是因為我們需要更多的運算。

這是GB 200 vlink 72,重1.5噸,600000個零件,大約相當於20輛車,1212、120千瓦。它後面有一根脊柱,將所有這些GPU連接在一起。2英里的銅電纜,5000根電纜。

這是在世界各地的45個工廠製造的,我們製造它們,我們用液體冷卻它們,我們測試它們,我們拆解它們,將它們的零件運送到數據中心,因為它重1.5噸,我們在數據中心外重新組裝並安裝它們。

製造是瘋狂的,但所有這一切的目標是因為縮放定律正在推動運算如此努力,以至於這種運算水準,Blackwell在上一代產品中,每瓦性能提高了4倍,每瓦性能提高了4倍,每美元性能提高了4倍。

基本上說,在一代人中,我們將訓練這些模型的成本降低了三倍,或者如果您想將模型的尺寸增加三倍,則成本大致相同。

但重要的是這個,這些正在生成代幣,當我們將來使用ChatGPT或使用Gemini或手機時,這些代幣將被我們所有人使用,幾乎所有這些應用程式都將消耗這些AI代幣,這些AI代幣是由這些系統生成的,每個數據中心都受到電力的限制。

因此,如果Blackwell的每瓦是我們上一代產品的四倍,那麼數據中心可以產生的收入,可以產生的業務量將增加四倍,所以這些AI工廠系統今天真的是工廠。現在,這一切的目標都是為了能夠創造出一個巨大運算性能的晶片,我們需要的運算量真的非常驚人,這基本上是一個巨大運算性能的晶片。

它可能需要大小的三到四倍,但這裡基本上是72個Blackwell GPU或144個晶片,這個晶片是1.4 exaflops,世界上最大、最快的超級電腦。直到最近,這台佔據整個房間的超級電腦才實現了exafloop。

加上這是AI浮點性能的1.4個exafloops,它有14 TB的記憶,但令人驚奇的是,記憶體頻寬為每秒1.2 PB,這基本上就是現在正在發生的整個網路流量,全世界的網路流量都在這些晶片上處理,我們總共有130兆個電晶體、2592個CPU核心,以及大量的網路。

我們創建andvlink的原因,企業界正在發生的最重要的事情之一是Agentic AI。

Agentic AI基本上是測試時間縮放的一個完美例子,AI是一個模型系統,其中一些是理解、與客戶互動、與用戶互動。

其中一些可能是檢索資訊,從記憶體中檢索資訊,語義AI系統也許正在上網、研究PDF文件,所以它可能正在使用工具,可能正在使用電腦,它可能正在使用生成式AI來生成圖表等。

接受你提出的問題、逐步分解,並通過所有這些不同的模型進行迭代,以便將來回覆用戶,以便AI做出回應。答案開始在未來噴出,你問一個問題,一大堆模型將在後台工作。

因此,測試時間的擴展,用於推理的運算量將會持續超越,因為我們想要更好的答案。為了幫助產業建構真正的AI,我們的上市並不是直接面向企業客戶,我們走向市場的方式是與IT生態系統中的軟體開發人員合作,整合我們的技術以實現新的功能。

就像我們對統一計算架構數據庫所做的那樣,我們現在想用AI來做這件事,就像過去的運算模型有處理電腦圖形、線性代數或未來流體動力學的API一樣,在這些加速庫的基礎上,代碼加速庫將有AI庫,我們創造了三件事來幫助生態系統建構Agentic AI。

NVIDIA的Nims本質上是AI微服務,全部打包起來。這需要非常複雜的CUDA軟體CDA、DNN切割列表、張量rtlm或Triton,或所有這些不同且非常複雜的軟體,以及模型本身,我們將其打包、優化、放入容器中,你可以把它帶到你喜歡的地方。

所以我們有視覺模型、理解語言模型、語音模型、動畫模型、數位生物學模型,我們為物理AI推出了一些令人興奮的新模型,這些AI模型可以在每個雲端中運行,因為NVIDIA的GP現在在每個雲端、OEM中都可用。

因此,您可以真正地利用這些,將其集成到您的軟體包中,創建以節奏運行的AI agent,或者可能有服務現在的agent,或者他們可能是Sap agent,他們可以將其部署到客戶並在客戶想要運行軟體的任何地方運行它。

下一層是我們所說的Nvidia Nemo。Nemo本質上是一個數位化的員工入職和培訓評估系統。在未來,這些AI代理人本質上是數位化的勞動力,與你的員工一起工作,代表你做事。

因此,您將這些專門代理帶入這些特殊代理的方式,進入你的公司就是像你雇用一名員工一樣雇用他們。

我們會幫助這些AI agent接受公司語言類型的訓練,也許這個詞彙對你的公司來說是獨一無二的,業務流程不同,你工作的方式與眾不同,所以你可以給他們舉例說明工作產品應該是什麼樣子。

他們會嘗試生成回饋,你也會給出回饋,然後評估它們,以此類推,這樣你就會看到界線,提出哪些是你不允許做的事情,像這些是你不能說的話等,我們甚至允許他們獲取某些資訊。

在很多方面,每家公司的IT部門都將成為AI代理商的人力資源部門,未來AI代理商的未來將管理今天,他們管理和維護未來來自IT產業的大量軟體,他們將改進大量數位代理並將其提供給公司使用。

因此,你的IT部門將變得有點像AI代理HR。最重要的是,我們提供了一大堆我們的生態系統可以利用的藍圖,所有這些都是完全開源的,所以你可以拿走它並修改藍圖,我們有各種不同類型代理商的藍圖。

今天我們還宣布我們正在做一些非常酷而且我認為非常聰明的事情,我們正在進行基於LLaMA的全系列模型,Nvidia LLaMAnemotron語言基礎模型。

LMA 3.1從Meta下載650000次類似的東西,它已經衍生並變成了其他模型,大約60000種其他不同的模型,這是每個企業和每個產業都被啟動開始研究AI的獨特原因。嗯,我們所做的事情是意識到每種模型確實可以更好,微調以適應企業使用。

因此,我們利用我們的專業知識和能力進行了微調,並將其變成了LLaMA的開放模型套件,有一些小的響應時間非常非常快,非常小,它們基本上是你的主流模型或超級模型。

這個超級模型可以用來作為許多其他模型的教師模型,它可以是一個獎勵模型評估者,一個為其他模型創造答案並決定它是否是一個好答案的評判者,基本上是向其他模型提供回饋。它可以用很多不同的方法蒸餾,基本上是一個教師模型,一個知識蒸餾模型非常大,非常有能力。

所以現在所有這些都可以在網路上找到,這些模型令人難以置信,它在聊天排行榜中排名第一,在指導排行榜中排名第一,在檢索排行榜中排名第一。

所以在世界各地的人工智慧代理中使用的不同類型的必要功能,這些對你來說將是令人難以置信的模型,我們也在與生態系統合作,而所有的NVIDIA AI技術都已集成到IT產業中。

我們有很棒的合作夥伴,在ServiceNow和SAP正在完成非常出色的工作,在西門子的工業AI,Cadence正在做出偉大的工作。我真的為我們所做的工作感到自豪,如你所知,他們徹底改變了搜索。是的,真的很棒的東西。

全世界的軟體工程師都認為,這將是下一個巨大的AI應用程式。接下來,巨大的AI服務期是軟體編碼,全球有3000萬軟體工程師,每個人都會有一個軟體助理幫助他們編碼,如果沒有,顯然,你只會降低生產力,創造出更少的好程式碼,所以這是3000萬,世界上有十億知識工作者,這非常非常清楚。

人工智慧代理可能是下一個機器人產業,可能是一個價值數兆美元的機會?好的,讓我向您展示我們創建的一些藍圖以及我們與合作夥伴和這些AI代理商所做的一些工作。

我已經提到過,您可以將NVIDIA AI帶到任何雲端,但您也可以將其放入您的雲端,但我們最想做的事情就是將其放在我們的電腦上。

正如你所知,Windows 95徹底改變了電腦產業,但Windows 95這種運算模式對於AI來說並不完美,因此,我們想要做的事情是,我們希望在未來讓您的AI基本上成為您的AI助理。

而不僅僅是3D API、聲音API和影音API,您將有生成式API、用於3D語言的生成式API和用於聲音的生成式AI等等,我們需要一個系統來實現這一點,同時利用雲端中的大量投資。我們不可能做到,世界可以創造另一種編程AI模型的方式,這只是不會發生的。

因此,如果我們能想出一種方法使Windows PC成為世界級的AI PC,那將是非常棒的,答案就是Windows。

它的Windows是兩個窗口,它是為開發人員開發的,並且它的開發是為了讓使用者可以訪問。WSL已經針對雲端原生應用程式進行了優化,它針對CUDA進行了優化,非常重要的是,它針對CUDA進行了優化。

因此,WSL兩個完全支持CUDA開箱即用。因此,我用NVIDIA Nemo向您展示的所有內容,我們開發的藍圖都將在AI dot nvidia dot com中使用,只要電腦適合它,只要你能適合那個模型。

我們將有許多適合的模型,無論是視覺模型、語言模型、語音模型,還是動畫、人體數位模型、人體模型以及各種不同類型的模型,這些模型都將非常適合您的電腦,如果你下載它並且它應該只運行,它會這樣做。

因此,我們的重點是將Windows WSL和Windows Ccc轉變為一個目標一流的平台,我們將在我們的生命中將支持和維護它。因此,這對各地的工程師和開發人員來說都是一件不可思議的事情。

讓我向你展示一些我們可以用它做的事情,這是我們剛剛為您製作的藍圖的例子之一。

所以我們可以讓他們為AI OEM做好準備,基本上所有世界領先的代工業者都將為這個堆疊準備好他們的電腦,所以AI PC正在來到你附近的家中。

好的,讓我們談談物理AI。說到Linux,讓我們來談談物理AI。所以物理AI,想像一下,而你的大型語言模型,你給它你的上下文,左邊的提示,它一次生成一個令牌來產生輸出,這基本上就是它的工作原理。

令人驚訝的是,中間的這個模型相當大,有數十億個參數。上下文長度非常大,因為您可能會決定加載PDF。在我的情況下,在問問題之前,我可能會加載幾個PDF,那些PDF正在變成代幣。

注意力,tranformer的基本注意力特徵是每個令牌都找到它與其他令牌的關係和相關性,因此您可能擁有數十萬個令牌,運算負載會以二次方式增加,它通過變壓器的每一層來處理所有參數、所有輸入序列,它產生一個令牌。

這就是我們需要Blackwell的原因,然後在當前令牌完成時產生下一個令牌,它將當前令牌放入輸入序列中並獲取整個內容並生成下一個令牌,它一次做一個。這就是變壓器模型,這就是為什麼它如此高效,運算要求很高的原因。如果不是PDF文件,而是你周圍的東西呢?

如果那邊不是提示問題,而是一個請求,然後拿起你知道那個盒子並把它拿回來呢?而不是在令牌中產生的東西,它是文本,它產生行動令牌。嗯,我剛才描述的對於機器人未來來說是非常明智的事情。而且技術就在拐角處。

但是我們需要做的是,我們需要創建有效有效的世界模型,如果你知道的話,而不是GPT,它是一種語言模型。

這個世界模型必須理解世界的語言,必須理解物理動力學,比如重力、摩擦和慣性,它必須理解幾何和空間關係,並且必須理解因果關係。如果你掉下了使地面變色的東西,如果你知道,就戳一下,翻過來,它必須理解對象永久性。

如果你把球滾到流理台上,當它離開另一側時,球並沒有離開另一個仍然存在的量子宇宙。

因此,我們知道今天大多數模型都很難理解的所有這些類型的理解直覺理解,所以我們想創造一個世界,我們需要一個世界基金會模型。今天,我們要宣佈一件非常重大的事情。我們正在宣佈推出NVIDIA宇宙,這是一個世界基金會模型,旨在理解物理世界,而你真正理解這一點的唯一方法就是看到它。

NVIDIA宇宙,世界上第一個世界基金會模型,它接受了2000萬小時影片的訓練。2000萬小時的影片聚焦於物理動態事物,動態自然、主題、人類行走、手移動、操縱事物,你知道的,這些都是相機快速移動的事情。

這實際上是關於教導AI,而不是生成創意內容,而是教導AI理解物理世界。由此,通過這種物理AI,我們可以做許多下游的事情。因此,我們可以進行合成數據生成來訓練模型。

我們可以將其提煉並有效地轉化為機器人模型的開端,您可以讓它生成多個基於物理的、物理上合理的未來場景。基本上,你可以做一個奇怪的醫生,因為這個模型理解物理世界。當然,你看到了一大堆生成這個模型的圖像,理解了財政世界;它也可以做字幕、可以拍攝影片,並非常好地描述它。

並且字幕和影片可用於訓練大型語言模型,多模態大型語言模型。因此,您可以使用這項技術來使用這個基礎模型來訓練機器人,以及大型語言模型。所以這就是NVIDIA宇宙。

該平台具有用於即時應用的自動回歸模型,作為用於非常高品質圖像生成的擴散模型,它是令人難以置信的代幣化器。

基本上,學習現實世界的詞彙和數據管道,這樣如果你想掌握所有這些,然後用你自己的數據來訓練它,這個數據管道,因為涉及到如此多的數據,我們已經為你加速了一切的端到端。因此,這是世界上第一個可以像I加速一樣加速的數據處理管道,所有這些都是宇宙平台的一部分。今天我們宣佈宇宙是開放許可的,它在GitHub上是開放可用的。

我們希望,我們希望這一刻,有一個小型、中型、大型的快速模型。主流模型和教師模型基本上不是知識轉移模型,因為宇宙世界基金會模型是開放的,我們真的希望能為機器人和工業世界做些什麼。當你將宇宙連接到全宇宙時,奇蹟就發生了。

其根本原因是這種全宇宙是一種基於物理的算法物理學、原則性物理模擬、接地系統,這是一個模擬器。當你把它連接到宇宙時,它提供了基礎,能夠控制和制約ozmo的產生的基本事實。因此,從宇宙中產生的東西是基於真理的。

因此,這兩者的結合為您提供了一個物理模擬,一個物理接地的多元宇宙發生器,應用程式和用例真的非常令人興奮。

當然,對於機器人技術和工業應用來說,很明顯這個宇宙是全宇宙加上宇宙代表了構建機器人系統所必需的第三台電腦。每個機器人公司最終都將不得不建造三台電腦、一個機器人。機器人系統可以成為一個工廠,機器人系統可以是汽車,也可以是機器人。你需要三台基礎電腦,當然,一台電腦來訓練AI。

我們調用dgx電腦來訓練另一個AI,當然,當您完成部署AI時,我們將車內、機器人或AMR或體育場或其他任何地方的agx稱為agx。這些電腦位於邊緣並且是自主的,但要將兩者連接起來,您需要一個數位孿生體,這就是你看到的所有模擬。

數位孿生體是經過訓練的人工智慧進行練習的地方,需要進行改進,以處理合成數據生成、強化學習、人工智慧回饋等。因此,這是一個數位ㄣ孿生體,我認為這三台電腦將以交互方式工作,NVIDIA是工業界的戰略,我們已經談論這個問題一段時間了,這是三個電腦系統,你知道的,不是三個三體問題,我們有三個電腦解決方案,所以看NVIDIA機器人。

那麼讓我給你舉三個例子。好的,第一個例子是我們如何應用,將所有這些應用於工業可視化。這裡有數百萬工廠,數十萬倉庫,這基本上是一個50萬億美元製造業的支柱。所有這些都必須成為軟體定義,所有這些都必須在未來實現自動化,並且所有這些都將注入機器人技術。

或與世界領先的倉庫自動化解決方案提供商keyon和全球最大的專業服務提供商ACCENTURE合作,他們非常注重數位製造,我們正在共同努力創造一些真正特別的東西。

但藝術品上市與我們通過開發者和生態系統合作夥伴擁有的所有其他軟體平台和技術平台基本相同,而且我們只有越來越多的生態系統合作夥伴連接到全宇宙。原因很清楚,每個人都希望將工業的未來數位化,在全球50萬億美元的國內生產總值(GDP) 中,有如此多的浪費和自動化機會。

那麼讓我們來看看這個,下一個例子,自動駕駛汽車,即自動駕駛革命,是在經過這麼多年之後到來的,伴隨著Waymo的成功和特斯拉的成功,這非常非常清楚。

自動駕駛汽車終於到來了,而我們為這個產業提供的是三台電腦,訓練人工智慧的訓練系統、模擬系統,以及合成數據生成系統omiverse和現在的Cosmos,還有車內的電腦,每家汽車公司可能會以不同的方式與我們合作。

捷豹路虎有一張非常酷的卡片要來了,賓士,一支與NVIDIA一起推出的車隊,從今年開始,將投入生產。我超級,超級高興地宣佈,今天豐田和NVIDIA將合作創造他們的下一代AVS。

比如Lucid、Rivian和小米,當然還有Volvo,有那麼多不同的汽車公司。

我們本週還宣布,Aurora將使用NVIDIA晶片製造自動駕駛卡車,每年生產1億輛自動駕駛汽車,全球道路上的車輛數量達到十億輛,每年行駛一兆英里的全球里程,這將要嘛是高度自主的,要嘛是完全自主的。因此,這將是一個非常大的產業。

我預測這可能會成為第一個價值數兆美元的機器人產業,這對我們來說是一項業務,請注意其中幾輛開始進入世界的汽車。我們的業務已經有40億美元,而今年的運行速度約為50億美元。

這台自動駕駛電腦現在已經全面投入生產,其處理能力是我們上一代的20倍,或者說這是當今自動駕駛汽車的標準。所以這真的非常非常不可思議,什麼地方正在全面生產?順便說一句,這個機器人處理器也可以成為一個完整的機器人,所以它可以是一個AMR,也可以是一個人或機器人、大腦,它是一台通用機器人電腦。

我非常自豪的驅動系統的第二部分是對安全駕駛更少的奉獻,我很高興地宣布,現在第一台軟體定義的可編程AI電腦已通過認證,這是汽車功能安全的最高標準,是唯一的,也是最高的,所以我真的為這個ISO感到非常自豪。因此,CUDA現在是一台功能齊全、安全的電腦,所以如果你正在建造一個機器人Nvidia CUDA。

好的,所以現在我想,我告訴過你我將向你展示在自動駕駛汽車的背景下,我們將使用Omniverse和Cosmos做什麼?而且,你知道的,今天,我不是給你們展示一大堆汽車在路上行駛的影片,但是我想向您展示我們如何使用汽車自動重建數位孿生,並使用這種能力來訓練未來的AI模型。

他把成千上萬個驅動器變成數十億英里,我們將擁有大量自動駕駛車輛的訓練數據。當然,我們仍然需要實際的汽車上路。當然,只要我們活著,我們將不斷收集數據。

然而,使用這種基於物理、物理接地的多元宇宙能力產生合成損傷,以便我們生成用於訓練的數據,這些數據是物理接地的,準確且合理的,這樣我們就可以在產業中獲得大量的數據訓練,這是一個令人難以置信的激動時刻。超級,超級。對未來幾年感到興奮。我認為你會看到,就像電腦圖形革命一樣,如此驚人的速度,在未來幾年裡,你會看到其開發的速度驚人地增加。

通用機器人的ChatGPT時刻即將到來,事實上,我所談論的所有使能技術都將使我們在未來幾年看到通用機器人的快速突破,令人驚訝的突破成為可能。

現在,通用機器人如此重要的原因是,帶有履帶和輪子的機器人需要特殊的環境來適應它們,而世界上有三個機器人,我們可以製造出不需要綠地的機器人。如果我們能夠製造這些驚人的機器人,那麼棕地適應是完美的,我們可以將它們部署在我們為自己建造的世界中。

這三個機器人是一個機器人和一個人工智慧,因為你知道,他們是訊息工作者,只要他們能容納我們辦公室里的電腦就很棒;第二,自動駕駛汽車。

原因是我們花了100多年建造道路和城市,然後第三個是人類或機器人,如果我們有技術解決這三個問題,這將是世界上最大的技術產業,所以我們認為機器人時代就在眼前。

在人類機器人的情況下,關鍵能力是如何訓練這些機器人,模仿訊息很難收集,原因是在汽車的情況下,你只需要駕駛它,我們一直在開車。在這些人類和機器人的情況下,人類演示的模仿訊息相當費力。

因此,我們需要想出一個聰明的方法來進行數百個演示,數千個人類演示,並以某種方式使用人工智慧和全宇宙來綜合生成數百萬個綜合生成的動作。從這些動作中,AI可以學習如何執行任務,讓我告訴你這是怎麼來的。

數據與NVIDIA Isaac根NVIDIA Isaac組一起訓練機器人,這是我們的平台,為機器人產業提供平台技術元素,以加速通用機器人的發展。好吧,我還有一個東西想給你看。如果沒有我們大約十年前開始的這個令人難以置信的項目,所有這些都不可能實現。在內部,該公司被稱為項目數字,深度學習GPU智慧培訓系統數字。

在我們推出它之前,我對dgx進行了縮減,並將其與RTX agx Ovx和我們公司中的所有其他X進行協調。它真正徹底改變了dgx,一個真正徹底改變了Dx,一個EGX,一個徹底改變了人工智慧。我們建造它的原因是因為我們想讓研究人員和新創公司擁有一台開箱即用的AI超級電腦,想像一下過去建造超級電腦的方式。

你真的必須建立自己的設施,你必須去建立自己的基礎設施,並真正地將其改造成現實。因此,我們為AI創建了一台超級電腦,為AI數量,為研究和創業公司創造了一個開箱即用的超級電腦,我在2016年向一家名為OpenAI的創業公司交付了第一個,Elon在那裡。

許多Mv工程師都在那裡,我們慶祝dgx one的到來,顯然它徹底改變了人工智慧和運算,但現在到處都是人工智慧。不僅僅是在研究人員和創業實驗室,我們想要人工智慧,正如我在演講開始時提到的,這是現在進行運算的新方式,這是做軟體的新方法。每個軟體工程師,每個工程師,每個創意藝術家,每個今天使用電腦作為工具的人都需要一台AI超級電腦。

所以我只是希望那個dgx小一些。

這是NVIDIA最新的AI超級電腦,它現在終於被稱為Project Digits。如果你有一個好名字,請與我們聯繫。這是一台AI超級電腦。它運行整個NVIDIA AI堆疊,所有NVIDIA軟體都在此dgx雲端上運行,這個位置很好,它是無線的,或者連接到你的電腦,它甚至是一個工作站,如果您喜歡它並且可以訪問它,您可以像雲端超級電腦一樣訪問它。

NVIDIA的AI在上面工作,它基於我們一直在研究的超級秘密晶片,名為GB 110。我們製作的口吻優雅的Blackwell,我有,嗯,你知道嗎,讓我們展示一下,讓我們帶大家進去。

這不是很可愛嗎?這是裡面的晶片,它正在生產中,我們合作建造了這艘絕密船,CPU,灰色CPU是為NVIDIA與Mediate合作建造的,他們是世界領先的SOC公司,他們與我們合作建構這個CPU,這個CPU SOC,並將其與晶片到晶片連接,連接到Blackwell GPU。而這個,這個小東西正在全力生產中,我們期望這台電腦在附近可用,所以它就向你走來。

大家新年快樂,謝謝。

(以上圖片取自NVIDIA官方影片)

查看原始文章

更多科技相關文章

01

伺服器CPU疑吃緊 傳超微英特爾通知中國客戶拉長交貨期

路透社
02

全球科技股跌勢趨緩 比特幣重返65000美元關卡上方

路透社
03

亞馬遜看好AI今年資本支出預計增逾50% 股價重挫

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...