人工智能、深度學習已經滲入到社會的各行各業,也切切實實地影響著我們生活的方方面面,比如新聞內容或者電商網站的個性化推送、搜索引擎、語音輸入法、手機相冊中的照片自動分類功能等。所有的這些背后都是AI/DL技術在支持,而支持這些AI/DL技術的背后又是一個又一個的大型數據中心。如何在大型的數據中心中部署一套有效的解決方案,來高效、靈活、低成本的支持數以億計的日請求呢?
2018年9月13日,NVIDIA推出首款基于新一代圖靈架構打造的GPU——Tesla T4,采用多精度 Turing Tensor Core和全新 RT Core,用于機器學習和數據推理。
Tesla T4配備16GB GDDR6,帶寬達到300GB/S。GPU中集成320個Turing Tensor Core和2560個Turing CUDA Core,支持4 種不同精度等級的各類 AI 工作負載。性能方面,Tesla T4的FP32單精度浮點計算性能8.1TFlops(每秒8.1萬億次),FP16/32半精度和單精度混合計算性能65TFlops,INT8、INT4整數計算性能則是130Tops、260Tops。在此之前,NVIDIA曾推出過類似的 Tesla P4 ,但Tesla T4可在相同的功耗下,提供高達 12 倍的性能。
NVIDIA還提供了圍繞 T4 的一系列技術,比如 TensorRT Hyperscale (人工智能數據中心平臺)、專門針對圖靈架構優化的CUDA 10。T4還支持 PyTorch、TensorFlow、MXNet、以及 Caffee2 等主流的深度學習框架。
12月7日晚8點,智東西聯合NVIDIA推出超級公開課NVIDIA專場第16講,由NVIDIA 中國區HPC/DL 解決方案架構師程帥主講,主題為《基于圖靈架構的Tesla T4如何讓AI推理更高效》。

課程信息
主題:基于圖靈架構的Tesla T4如何讓AI推理更高效
時間:12月7日
地點:「深度學習」社群、智東西公開課小程序
課程內容
主題:基于圖靈架構的Tesla T4如何讓AI推理更高效
講師:NVIDIA 中國區HPC/DL 解決方案架構師程帥
提綱
1.當前線上推理端的困境
2.新一代硬件推理平臺T4 GPU架構剖析
3.線上自動優化工具TensorRT5特性介紹
4.TensorRT Inference Server如何提高線上推理服務部署效率
講師介紹
程帥,NVIDIA 中國區HPC/DL 解決方案架構師,在HPC和DL領域有多年的架構方案經驗,支持過國內多個大型HPC 數據中心以及多家大型CSP中DL集群設計。
入群路徑
本次課程我們將設置主講群,講師將親自入群交流。希望進入主講群與老師認識和交流的朋友,掃描海報上的二維碼添加智東西公開課聯絡員“動動(zhidxzb)”為好友,添加時請備注“姓名-公司-職位或姓名-學校-專業”,申請進入主講群。
社群規則
1、智東西社群堅持實名學習、交流和合作,入群后需要修改群昵稱為:姓名-公司-所在領域,違者踢群;
2、禁止在群內廣告和發送二維碼等無關信息,違者踢群。