上一篇講到深度學習的火熱,讓許多普羅大眾開始擁抱GPU技術;因為GPU的取得相對於FPGA容易,而且開發環境較為成熟。無論是NVIDIA或是AMD,都支援之前在第九篇所提到的OpenCL語言撰寫的程式,雖然NVIDIA對於自家的CUDA,支援還是比較積極。 GPU加速運算的瓶頸 高階的GPU,通常是連接在系統的PCI Express(PCIe)介面上,因此當CPU上的主程式需要GPU幫忙計算時,必須先透過PCIe,將存放在主機的記憶體或儲存裝置的資料,傳送到GPU的記憶體中。 而GPU計算出來的資料,也必須透過PCIe傳回主機。這是目前GPGPU在實際使用上,最大的效能瓶頸之一;如果採用目前最快的16通道PCIe 3.0介面,一張GPU卡只能以16GB/Sec的速度,與處理器交換資料。
從雲端加速技術看台灣高階人才培育問題#13:有待突破的效能瓶頸/洪士灝
從雲端加速技術看台灣高階人才培育問題#13:有待突破的效能瓶頸/洪士灝
從雲端加速技術看台灣高階人才培育問題#13:有待突破的效能瓶頸/洪士灝
上一篇講到深度學習的火熱,讓許多普羅大眾開始擁抱GPU技術;因為GPU的取得相對於FPGA容易,而且開發環境較為成熟。無論是NVIDIA或是AMD,都支援之前在第九篇所提到的OpenCL語言撰寫的程式,雖然NVIDIA對於自家的CUDA,支援還是比較積極。 GPU加速運算的瓶頸 高階的GPU,通常是連接在系統的PCI Express(PCIe)介面上,因此當CPU上的主程式需要GPU幫忙計算時,必須先透過PCIe,將存放在主機的記憶體或儲存裝置的資料,傳送到GPU的記憶體中。 而GPU計算出來的資料,也必須透過PCIe傳回主機。這是目前GPGPU在實際使用上,最大的效能瓶頸之一;如果採用目前最快的16通道PCIe 3.0介面,一張GPU卡只能以16GB/Sec的速度,與處理器交換資料。