贪心首席AI架构师
├──第01周 开班典礼| ├──开班典礼1.mp470.31M
| ├──开班典礼2.mp472.21M
| └──开班典礼3.mp473.84M
├──第02周 基础理论及课程介绍
| ├──lecture1.mp4193.07M
| ├──lecture2.mp4153.55M
| ├──review1.mp472.21M
| ├──review2.mp4553.61M
| └──review3.mp4461.53M
├──第03周 并行及分布式框架概述
| ├──01.框架概述
| ├──02.代码实战
| └──03.阅读paper
├──第04周 环境安装与gitlab的使用
| ├──01.环境安装与gitlab的使用
| ├──02.经典并行模式
| └──03.Speaker-Aware Talking-Head Animation
├──第05周 卷积结构及其计算
| ├──01.卷积结构及其计算
| ├──02.EFFICIENT WINOGRAD CONVOLUTION VIA INTEGER ARITHMETIC
| └──03.前后向算法
├──第06周 目标检测算法
| ├──01.目标检测算法
| └──02.Distilling the Knowledge in a Neural Network
├──第07周 Lecture1 NvidiaTensort核心算法和Plugin开发
| ├──Lecture1NvidiaTensort核心算法和Plugin开发
| └──PaperDistillingheKnowledgeinaNeuralNetwork
├──第08周 TensoRT详讲 真实环境下的代码操作
| ├──DynamicetworkSurgeryorEfficientDNNs
| ├──LectureTensoRT详讲真实环境下的代码操作
| └──TensorRTpluginnmsPlugin这个plugin插件的具体
├──第09周 个性化语音合成项目技术概览
| ├──Improving Neural Network Quantization without Retraining using
| ├──Lecture 个性化语音合成项目技术概览
| └──TensorRT SSD 推理
├──第10周 计算图表示及优化
| ├──WorkshopData-Free Knowledge Distillation for Deep Neural Networks
| └──计算图表示及优化
├──第11周 Attention-Based Seq2Seq模型Tacotron2-Lecture
| ├──1-Lecture Attention-Based Seq2Seq模型Tacotron2
| ├──2-Workshop 说话人特征提取技术实现及环境搭建
| ├──3-Workshop Rethinking the Smaller
| └──4-Workshop 代码练习
├──第12周 声码器Wave序列生成算法实战-Lecture
| ├──PAYINGMOREATTENTIONTOATTENTIONIMPROVINGTHEPERFORMANCE.mp4108.82M
| ├──Tacotron2合成模型实现1.mp467.94M
| ├──Tacotron2合成模型实现2.mp4263.98M
| ├──声码器Wave序列生成算法实战1.mp4145.56M
| ├──声码器Wave序列生成算法实战2.mp4200.38M
| ├──声码器Wave序列生成算法实战3.mp4182.12M
| └──声码器Wave序列生成算法实战4.mp4211.22M
├──第13周 tensorrt实战
| ├──PerformanceGuaranteedNetworkAccelerationviaHighOrderResidualQuantization.mp476.51M
| ├──tensorrt实战1.mp4191.30M
| ├──tensorrt实战2.mp4254.85M
| ├──tensorrt实战3.mp4151.33M
| ├──tensorrt实战4.mp4328.96M
| └──tensorrt实战5.mp4306.63M
├──第14周 推荐系统概览
| ├──SimpleResourceConstrainedStructureLearningofDeepNetworks.mp4129.02M
| ├──常用Attention的实现1.mp445.81M
| ├──常用Attention的实现2.mp4169.20M
| ├──推荐系统概览1.mp4178.44M
| ├──推荐系统概览2.mp4133.73M
| ├──推荐系统概览3.mp4213.93M
| ├──推荐系统概览4.mp4248.53M
| ├──作业讲解1.mp453.25M
| └──作业讲解2.mp4174.90M
├──第15周 分布式参数服务器
| ├──HorovodfastandeasydistributeddeeplearninginTensorFlow.mp486.91M
| ├──Horovodtensorflow应用1.mp451.37M
| ├──Horovodtensorflow应用2.mp4151.91M
| ├──分布式参数服务器1.mp4148.62M
| ├──分布式参数服务器2.mp4144.48M
| ├──分布式参数服务器3.mp4191.60M
| └──分布式参数服务器4.mp4168.73M
├──第16周 分布式推荐系统实战
| ├──Difacto中SGD算法的实现1.mp4118.58M
| ├──Difacto中SGD算法的实现2.mp483.10M
| ├──DistributedTrainingStrategiesfortheStructuredPerceptron.mp4147.34M
| ├──Mixed Precision Training.mp475.66M
| ├──分布式推荐系统实战1.mp4108.52M
| ├──分布式推荐系统实战2.mp497.71M
| ├──分布式推荐系统实战3.mp4119.08M
| ├──分布式推荐系统实战4.mp474.30M
| ├──分布式推荐系统实战5.mp4157.48M
| ├──深度学习框架技术-1.mp4174.41M
| ├──深度学习框架技术-2.mp4180.82M
| ├──深度学习框架技术-3.mp4114.44M
| └──深度学习框架技术-4.mp4108.61M
├──第17周 训练加速高级技术1
| ├──Local SGD Converges Fast and Communicates Little.mp4125.55M
| ├──TNN高效存储管理机制-1.mp4111.50M
| ├──TNN高效存储管理机制-2.mp4130.82M
| ├──训练及预测加速高级技术-1.mp448.01M
| ├──训练及预测加速高级技术-2.mp4110.49M
| ├──训练及预测加速高级技术-3.mp481.06M
| ├──训练及预测加速高级技术-4.mp4130.31M
| ├──训练及预测加速高级技术-5.mp476.80M
| └──训练及预测加速高级技术-6.mp4236.74M
├──第18周 训练及预测加速高级技术
| ├──模型压缩技术实现-1.mp468.00M
| ├──模型压缩技术实现-2.mp4112.14M
| ├──训练加速高级技术1-1.mp482.47M
| ├──训练加速高级技术1-2.mp470.43M
| ├──训练加速高级技术1-3.mp4120.05M
| ├──训练加速高级技术1-4.mp4104.96M
| ├──训练加速高级技术1-5.mp4166.27M
| └──训练加速高级技术1-6.mp4140.12M
└──第19周 最后一课
| ├──Fast Locality Sensitive Hashing for Beam Search on GPU.mp4102.21M
| ├──最后一课-1.mp447.53M
| └──最后一课-2.mp457.14M
**** Hidden Message *****
啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇!
啥也不说了,感谢楼主分享哇! 感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇!