Search Our Site

 
加快深度學習推理速度

在人工智能 (AI) 的新時代,深度學習能超精準地完成復雜的任務,從而提升人們的日常生活體驗。在圖形處理器 (GPU) 上訓練的深度學習模型已在眾多領域展示出以前無法實現的震撼成果,這些領域包括互動語音、計算機視覺和預測分析等等。

在中央處理器 (CPU) 上部署現代神經網絡以進行推理時,AI 服務無法提供用戶互動所需的響應速度。NVIDIA? Tesla? P40 和 P4 GPU 加速器帶來了出色的解決方案,它們提供極高的吞吐量和響應極其迅速的體驗,能輕松處理深度學習推理的工作負載。它們采用 NVIDIA Pascal? ?架構可提供比 CPU 快 60 倍以上的推理性能,即使在極其復雜的深度學習模型中也能實現實時響應。

 
 

NVIDIA TESLA 推理加速器

Deep Learning Inference Latency

Deep Learning Inference Throughput

 

NVIDIA Tesla P40 

極高的深度學習推理吞吐量

Tesla P40 專為提供極高的深度學習推理吞吐量而打造。每個 GPU 可提供 47 TOPS(萬億次運算/秒)的推理性能,使得一臺配備八個 Tesla P40 的服務器可代替超過 100 臺 CPU 服務器。

PdfTesla P40 數據表 (PDF – 166KB)

 

 

 

 

外擴型服務器中的超高效深度學習

Tesla P4 可加快外擴型服務器的運行速度,其能效比 CPU 提高了 40 倍,非常令人震撼。

PdfTesla P4 數據表 (PDF – 164KB)
 
 
 
 
 tesla p4 front

深度學習加速器的特性和利益點

這些 GPU 能加快預測速度,讓 AI 應用程序能夠帶來卓越的用戶體驗。

吞吐量提高 100 倍以適應不斷增長的數據量 
吞吐量提高 100 倍以適應不斷增長的數據量
 
每天,傳感器日志、圖像、視頻和記錄都會產生海量的數據,而使用 CPU 來處理這些數據并不劃算。采用 Pascal 架構的 GPU 提供極高的吞吐量,可讓數據中心輕松處理深度學習部署的工作負載和從海量數據中提取有效信息。在處理深度學習工作負載方面,一臺配備八個 Tesla P40 的服務器可以代替超過 100 臺僅使用 CPU 的服務器,因而可以提升吞吐量并降低購買成本。

 

超高效打造出低功耗的外擴型服務器 
超高效打造出低功耗的外擴型服務器
 
憑借小巧的外形和 50/75 瓦的功耗設計,超高效的 Tesla P4 GPU 可加快經過密度優化的外擴型服務器的運行速度。在處理深度學習推理的工作負載方面,它的能效比 CPU 高 40 倍,非常驚人。因此,超大型客戶可在現有的基礎設施內提升處理能力,并滿足以指數式增長的 AI 應用程序需求。 
 
 
 
 專用于新型 AI 視頻服務的解碼引擎  
專用于新型 AI 視頻服務的解碼引擎
 
Tesla P4 和 P40 GPU 配備專用的硬件加速解碼引擎(與執行推理的 NVIDIA CUDA? 核心并行運行),可實時分析多達 39 路高清視頻流。將深度學習集成到視頻管線后,客戶可以向用戶提供智能程度創新高的新型視頻服務。
 
 
 
 
 使用 NVIDIA TensorRT? 和 DeepStream SDK 加快部署速度
使用 NVIDIA TensorRT? 和 DeepStream SDK 加快部
 
署速度NVIDIA TensorRT 是一種高性能神經網絡推理引擎,用于在生產環境中部署深度學習應用程序。它包含一個為優化在生產環境中部署的深度學習模型而創建的庫,可獲取經過訓練的神經網絡(通常使用 32 位或 16 位數據),并針對降低精度的 INT8 運算來優化這些網絡。NVIDIA DeepStream SDK 利用 Pascal GPU 的強大功能同時對視頻流進行解碼和分析。
 

NVIDIA TESLA P40P4 加速器的性能規格

P4P40參數

 *啟用加速頻率的每秒萬億次運算次數

 

NVIDIA TESLA P40P4 加速器的功能和規格

                                      P4

                                     P40

P4參數  P40參數 

上海蘭憶網絡科技有限公司.

上海市漕寶路80號光大會展中心D座1106室 / 中國 +86 21 64510410

訂閱我們的新聞刊物

掃碼關注  
微信公眾號  
qrcode for gh 81122468ecea 258
激性欧美在线观看_光根电影院yy11111在线_欧美z0z0变态人禽交