1樓:匿名使用者
gpu概念
gpu英文全稱graphic processing unit,中文翻譯為逗圖形處理器地。
gpu是相對於cpu的一個概念,由於在現代的計算機中(特別是家用系統,遊戲的發燒友)圖形的處理變得越來越重要,需要一個專門的圖形的核心處理器。
gpu的作用
gpu是顯示卡的逗大腦地,它決定了該顯示卡的檔次和大部分效能,同時也是2d顯示卡和3d顯示卡的區別依據。
2d顯示晶片在處理3d影象和特效時主要依賴cpu的處理能力,稱為逗軟加速地。
3d顯示晶片是將三維影象和特效處理功能集中在顯示晶片內,也即所謂的逗硬體加速地功能。
顯示晶片通常是顯示卡上最大的晶片(也是引腳最多的)。
現在市場上的顯示卡大多采用nvidia和ati兩家公司的圖形處理晶片。
於是nvidia公司在2023年釋出geforce 256圖形處理晶片時首先提出gpu的概念。
gpu使顯示卡減少了對cpu的依賴,並進行部分原本cpu的工作,尤其是在3d圖形處理時。
gpu所採用的核心技術有硬體t&l、立方環境材質貼圖和頂點混合、紋理壓縮和凹凸對映貼圖、雙重紋理四畫素256位渲染引擎等,而硬體t&l技術可以說是gpu的標誌。
簡單說gpu就是能夠從硬體上支援t&l(transform and lighting,多邊形轉換與光源處理)的顯示晶片,因為t&l是3d渲染中的一個重要部分,其作用是計算多邊形的3d位置和處理動態光線效果,也可以稱為逗幾何處理地。
一個好的t&l單元,可以提供細緻的3d物體和高階的光線特效;
只不過大多數pc中,t&l的大部分運算是交由cpu處理的(這就也就是所謂的軟體t&l),由於cpu的任務繁多,除了t&l之外,還要做記憶體管理、輸入響應等非3d圖形處理工作,因此在實際運算的時候效能會大打折扣,常常出現顯示卡等待cpu資料的情況,其運算速度遠跟不上今天覆雜三維遊戲的要求。
即使cpu的工作頻率超過1ghz或更高,對它的幫助也不大,由於這是pc本身設計造成的問題,與cpu的速度無太大關係。
關於cpu和gpu的相關問題
第一個問題:
gpu的競爭遠比cpu的競爭來得激烈。
通用pc的cpu就只有英特爾和amd兩家大廠。
而在gpu方面領先的是n記和a記兩家廠商,但能生產中低端產品的還有英特爾、3s等好幾家廠商。
它們的產品雖然不如前兩家,但在很多應用方面也能滿足使用者的需要,所以n記和a記只有拼命往前跑才不會死掉。
cpu廠商沒有采用gpu的先進工藝是因為cpu廠商都有自己投資的生產線,不可能一下把原來的生產線都淘汰了上新的生產線,那樣做可能連當初投入的資金都難以收回。
而gpu廠商由於種種原因,一般都是自己設計由別人代工的,比如找臺積電代工。
代工廠商為了能接到業務,只有不停升級自己的生產裝置,這樣才能生存下來。
所以造成以上原因。
第二個問題
就如所說的一樣,cpu除了處理遊戲的ai,情節等方面的資料外,對於有些影象方面也是由它完成的。
當微軟每次釋出新的dx時,並不是每款gpu都能支援dx新的特性,所以有些影象方面的任務還得由cpu來完成。
還有有些特性比如重力特性以前是由cpu來完成,現在有些gpu也能支援了,這些任務就由gpu來完成了。
第三個問題
gpu相當於專用於影象處理的cpu,正因為它專,所以它強,在處理影象時它的工作效率遠高於cpu,但是cpu是通用的資料處理器,在處理數值計算時是它的強項,它能完成的任務是gpu無法代替的,所以不能用gpu來代替cpu。
另外現在amd收購了a記顯示卡晶片的設計廠商,amd看到今後cpu和gpu只有走一條融合的道路才能地競爭中佔得先機。
cpu和gpu如何配合默契才能最大地提高工作效率是amd現在考慮的問題,也是英特爾的問題。
第四個問題
微軟釋出windows7 其中一個顯著特性就是 聯合gpu和cpu的強大實力,提升gpu在硬體使用的價值,在windows7中,cpu與gpu組成了協同處理環境。
cpu運算非常複雜的序列**,而gpu則執行大規模並行應用程式。
微軟利用directx compute將gpu作為作業系統的核心組成部分之一。
directx compute。
它讓開發人員能夠利用 gpu的大規模平行計算能力,創造出引人入勝的消費級和專業級計算應用程式。
簡單的說,directx compute就是微軟開發的gpgpu通用計算介面,欲統一gpu通用計算標準。
也就是說windows7 以後gpu的硬體地位將僅次於cpu,發揮出更大的效用。
2樓:騰訊電腦管家
在未來的深度學習中,大約有95%的應用是資料的推斷。
而且fpga或者asic相較於gpu/cpu無論在研發還是產出上的成本都明顯降低。
因此必然是兵家必爭之地。
無論從intel收購altra/ movidius,還是xilinx與ibm合作,抑或谷歌和高通默默開發自己的專屬asic中都可見一斑。
而且針對移動端的深度學習,fpga或者asic更多的會以soc形式出現,以至於更好的優化神經網路結構提升效率。
3樓:匿名使用者
不明白樓主你要問什麼。
用gpu和cpu伺服器深度學習,哪個合算?
4樓:ai撲社
gpu合算
cpu擅長邏輯控制,序列的運算。
gpu擅長的是大規模併發計算。
gpu的工作大
部分計算量大,但沒什麼技術含量,而且要重複很多很多次。gpu用很多簡單的計算單元去完成大量的計算任務,純粹的人海戰術。
5樓:隨風而至喵小姐
如果是深度學習,那麼gpu的效能和**更好,比如這款配置了nvdia rtgeforce rtx 2080 ti的gpu計算卡,也才兩w,價效比很高
產品型號:za1p2s8-16897-tc2產品型別:單路十六核塔式gpu計算伺服器
處 理 器:threadripper 2950x內 存:64g ddr4
硬 盤:ssd nvme m.2 512g網 卡:雙千兆
管 理:硬體監控、遠端管理
機 構:塔式
電 源:1250w
作業系統:linux免費版 / vmware esxi服 務:全國聯保 叄年質保
6樓:太陽島
cpu是一個有多種功能的優秀領導者。它的優點在於排程、管理、協調能力強,計算能力則位於其次。而gpu相當於一個接受cpu排程的「擁有大量計算能力」的員工。
當需要對大資料bigdata做同樣的事情時,gpu更合適,當需要對同一資料做很多事情時,cpu正好合適。
gpu能做什麼?關於圖形方面的以及大型矩陣運算,如機器學習演算法等方面,gpu就能大顯身手。
簡而言之,cpu擅長統領全域性等複雜操作,gpu擅長對大資料進行簡單重複操作。cpu是從事複雜腦力勞動的教援,而gpu是進行大量平行計算的體力勞動者。
深度學習是模擬人腦神經系統而建立的數學網路模型,這個模型的最大特點是,需要大資料來訓練。因此,對電腦處理器的要求,就是需要大量的並行的重複計算,gpu正好有這個專長。
7樓:博百優小
說道經濟實惠,那肯定租用gpu伺服器更靠譜。硬體配置不太懂,不過我的**是室友推薦的易學智慧上租的gpu跑的,比自己組裝肯定是要划算,當然小白也不會弄硬體方面。整體來說,租用還是方便,適合我這樣的小白上手。
個人意見僅供參考,大神勿噴。
深度學習用gpu好還是cpu好? 5
8樓:匿名使用者
個人覺得,這個課題,可以通過實踐去驗證……
分別用cpu和gpu進行一下試驗,看看哪個效果好……效果更好的,就是最佳的選擇……
9樓:熱過火啊
不是很瞭解你的計算需求,不過從效率來說。目前用gpu的效率好過cpu幾倍。看你資料量 1660ti不太適合這種應用場景。視訊記憶體不夠的可能性肯定存在。建議試下。不行再加記憶體
希望對你有所幫助。不懂繼續問,滿意請採納
10樓:蜀中諸葛暗
現在做深度學習可以採用雲端計算資源,多種顯示卡(特斯拉p4 p40 p100 2080ti t4)多種預裝環境(cuda,tensorflow python)可以選擇,而且隨用隨開就行,一小時幾元錢,滴滴打車現在也做雲gpu,用過幾次挺不錯的https://i.didiyun.
11樓:匿名使用者
深度學習看你是初學的還是複習的,初學的一般對cpu顯示卡都不是要求特別高,如果是複習大型的深度學習哪吃gpu顯示卡相當厲害,比如,麗臺tesla p100 12g深度學習機器學習gpu加速卡,40000塊,所以為什麼有專門的深度學習顯示卡就說明gpu給cpu更重要,
深度學習硬體這件事,gpu,cpu,fpga到底誰最合適
12樓:霸7威武
gpu概念
gpu英文全稱graphic processing unit,中文翻譯為逗圖形處理器地。
gpu是相對於cpu的一個概念,由於在現代的計算機中(特別是家用系統,遊戲的發燒友)圖形的處理變得越來越重要,需要一個專門的圖形的核心處理器。
gpu的作用
gpu是顯示卡的逗大腦地,它決定了該顯示卡的檔次和大部分效能,同時也是2d顯示卡和3d顯示卡的區別依據。
2d顯示晶片在處理3d影象和特效時主要依賴cpu的處理能力,稱為逗軟加速地。
3d顯示晶片是將三維影象和特效處理功能集中在顯示晶片內,也即所謂的逗硬體加速地功能。
顯示晶片通常是顯示卡上最大的晶片(也是引腳最多的)。
現在市場上的顯示卡大多采用nvidia和ati兩家公司的圖形處理晶片。
於是nvidia公司在2023年釋出geforce 256圖形處理晶片時首先提出gpu的概念。
gpu使顯示卡減少了對cpu的依賴,並進行部分原本cpu的工作,尤其是在3d圖形處理時。
gpu所採用的核心技術有硬體t&l、立方環境材質貼圖和頂點混合、紋理壓縮和凹凸對映貼圖、雙重紋理四畫素256位渲染引擎等,而硬體t&l技術可以說是gpu的標誌。
簡單說gpu就是能夠從硬體上支援t&l(transform and lighting,多邊形轉換與光源處理)的顯示晶片,因為t&l是3d渲染中的一個重要部分,其作用是計算多邊形的3d位置和處理動態光線效果,也可以稱為逗幾何處理地。
一個好的t&l單元,可以提供細緻的3d物體和高階的光線特效;
只不過大多數pc中,t&l的大部分運算是交由cpu處理的(這就也就是所謂的軟體t&l),由於cpu的任務繁多,除了t&l之外,還要做記憶體管理、輸入響應等非3d圖形處理工作,因此在實際運算的時候效能會大打折扣,常常出現顯示卡等待cpu資料的情況,其運算速度遠跟不上今天覆雜三維遊戲的要求。
即使cpu的工作頻率超過1ghz或更高,對它的幫助也不大,由於這是pc本身設計造成的問題,與cpu的速度無太大關係。
關於cpu和gpu的相關問題
第一個問題:
gpu的競爭遠比cpu的競爭來得激烈。
通用pc的cpu就只有英特爾和amd兩家大廠。
而在gpu方面領先的是n記和a記兩家廠商,但能生產中低端產品的還有英特爾、3s等好幾家廠商。
它們的產品雖然不如前兩家,但在很多應用方面也能滿足使用者的需要,所以n記和a記只有拼命往前跑才不會死掉。
cpu廠商沒有采用gpu的先進工藝是因為cpu廠商都有自己投資的生產線,不可能一下把原來的生產線都淘汰了上新的生產線,那樣做可能連當初投入的資金都難以收回。
而gpu廠商由於種種原因,一般都是自己設計由別人代工的,比如找臺積電代工。
代工廠商為了能接到業務,只有不停升級自己的生產裝置,這樣才能生存下來。
所以造成以上原因。
第二個問題
就如所說的一樣,cpu除了處理遊戲的ai,情節等方面的資料外,對於有些影象方面也是由它完成的。
當微軟每次釋出新的dx時,並不是每款gpu都能支援dx新的特性,所以有些影象方面的任務還得由cpu來完成。
還有有些特性比如重力特性以前是由cpu來完成,現在有些gpu也能支援了,這些任務就由gpu來完成了。
第三個問題
gpu相當於專用於影象處理的cpu,正因為它專,所以它強,在處理影象時它的工作效率遠高於cpu,但是cpu是通用的資料處理器,在處理數值計算時是它的強項,它能完成的任務是gpu無法代替的,所以不能用gpu來代替cpu。
另外現在amd收購了a記顯示卡晶片的設計廠商,amd看到今後cpu和gpu只有走一條融合的道路才能地競爭中佔得先機。
cpu和gpu如何配合默契才能最大地提高工作效率是amd現在考慮的問題,也是英特爾的問題。
第四個問題
微軟釋出windows7 其中一個顯著特性就是 聯合gpu和cpu的強大實力,提升gpu在硬體使用的價值,在windows7中,cpu與gpu組成了協同處理環境。
cpu運算非常複雜的序列**,而gpu則執行大規模並行應用程式。
微軟利用directx compute將gpu作為作業系統的核心組成部分之一。
directx compute。
它讓開發人員能夠利用 gpu的大規模平行計算能力,創造出引人入勝的消費級和專業級計算應用程式。
簡單的說,directx compute就是微軟開發的gpgpu通用計算介面,欲統一gpu通用計算標準。
也就是說windows7 以後gpu的硬體地位將僅次於cpu,發揮出更大的效用。
深度學習C,怎麼學習c 並且運用到深度學習上
c primer中文版 c 程式設計思想 資料結構 仔細看,多寫 實驗,都研究透徹了,你c 功底就很不錯了如果急著找工作,打算在windows下發展,趕緊找本c 專案開發實踐 大概就這種名字,國人寫的,很多的,的書,裡面有很多的例子,就是教你怎麼開發個東西出來,照著做,學完了自己做個自己感興趣的東西...
大資料與深度學習區別,大資料與深度學習有什麼區別
很顯然,大資料和深度學習完全是兩個不同領域的名詞。大資料在描述資料本身的顯性的一個狀態。而深度學習或者說機器學習則在試圖描述資料內在的邏輯。所以深度學習 或者機器學習 可以是建立於大資料之上的一些方 當然深度學習 或者機器學習 也可以建立於小資料之上。更甚至,大資料也可以不依託於機器學習,而只是依託...
機器學習和深度學習之間的區別有哪些
機器學習最基本的做法,是使用演算法來解析資料 從中學習,然後對真實世界中的事件做出決策和 與傳統的為解決特定任務 硬編碼的軟體程式不同,機器學習是用大量的資料來 訓練 通過各種演算法從資料中學習如何完成任務。機器學習直接 於早期的人工智慧領域。傳統演算法包括決策樹學習 推導邏輯規劃 聚類 強化學習和...