网易龙龙——深度学习与pytorch入门实战
章节1:深度学习初见试看课时1 视频 深度学习框架简介09:07可试看
课时2 视频 PyTorch功能演示11:09可试看
章节2:开发环境安装试看
课时3 视频 Anaconda-CUDA安装07:17可试看
课时4 视频 PyTorch-PyCharm安装12:12可试看
章节3:回归问题试看
课时5 视频 简单回归问题-109:09可试看
课时6 视频 简单回归问题-214:44可试看
课时7 视频 回归问题实战08:43可试看
课时8 视频 分类问题引入-107:16
课时9 视频 分类问题引入-209:19
课时10 视频 手写数字识别初体验-106:09
课时11 视频 手写数字识别初体验-206:35
课时12 视频 手写数字识别初体验-307:02
课时13 视频 手写数字识别初体验-408:05
课时14 视频 手写数字识别初体验-508:16
章节4:PyTorch基础教程
课时15 视频 张量数据类型-109:56
课时16 视频 张量数据类型-214:07
课时17 视频 创建Tensor-110:46
课时18 视频 创建Tensor-212:59
课时19 视频 索引与切片-112:10
课时20 视频 索引与切片-211:30
课时21 视频 维度变换-107:37
课时22 视频 维度变换-210:01
课时23 视频 维度变换-307:52
课时24 视频 维度变换-410:23
章节5:PyTorch进阶教程
课时25 视频 Broadcasting-108:46
课时26 视频 Broadcasting-211:35
课时27 视频 Broadcasting-306:11
课时28 视频 合并与分割-110:43
课时29 视频 合并与分割-206:36
课时30 视频 数学运算-107:39
课时31 视频 数学运算-208:54
课时32 视频 属性统计-110:41
课时33 视频 属性统计-211:34
课时34 视频 高阶操作16:05
章节6:随机梯度下降
课时35 视频 什么是梯度-110:19
课时36 视频 什么是梯度-214:16
课时37 视频 常见函数的梯度07:18
课时38 视频 激活函数与Loss的梯度-113:52
课时39 视频 激活函数与Loss的梯度-208:52
课时40 视频 激活函数与Loss的梯度-306:46
课时41 视频 激活函数与Loss的梯度-411:57
课时42 视频 感知机的梯度推导-113:35
课时43 视频 感知机的梯度推导-213:16
课时44 视频 链式法则11:31
课时45 视频 反向传播算法-112:44
课时46 视频 反向传播算法-207:01
课时47 视频 优化问题实战08:54
章节7:神经网络与全连接层
课时48 视频 Logistic Regression14:12
课时49 视频 交叉熵-106:42
课时50 视频 交叉熵-209:08
课时51 视频 交叉熵-304:51
课时52 视频 多分类问题实战08:26
课时53 视频 全连接层13:59
课时54 视频 激活函数与GPU加速11:37
课时55 视频 MNIST测试实战12:01
课时56 视频 Visdom可视化13:08
章节8:过拟合
课时57 视频 过拟合与欠拟合14:24
课时58 视频 交叉验证-111:46
课时59 视频 交叉验证-207:38
课时60 视频 Regularization11:21
课时61 视频 动量与学习率衰减13:57
课时62 视频 Early stopping, dropout等14:20
章节9:卷积神经网络CNN
课时63 视频 什么是卷积-112:58
课时64 视频 什么是卷积-208:47
课时65 视频 卷积神经网络-111:19
课时66 视频 卷积神经网络-211:11
课时67 视频 卷积神经网络-308:43
课时68 视频 池化层与采样10:53
课时69 视频 BatchNorm-105:40
课时70 视频 BatchNorm-212:32
课时71 视频 BatchNorm-307:33
课时72 视频 经典卷积网络 LeNet5,AlexNet, VGG, GoogLeNet-109:18
课时73 视频 经典卷积网络 LeNet5,AlexNet, VGG, GoogLeNet-209:43
课时74 视频 ResNet与DenseNet-112:03
课时75 视频 ResNet与DenseNet-210:21
课时76 视频 nn.Module模块-110:17
课时77 视频 nn.Module模块-208:56
课时78 视频 数据增强12:53
章节10:CIFAR10与ResNet实战
课时79 视频 CIFAR10数据集介绍10:07
课时80 视频 卷积神经网络实战-110:07
课时81 视频 卷积神经网络实战-210:04
课时82 视频 卷积神经网络训练10:04
课时83 视频 ResNet实战-110:11
课时84 视频 ResNet实战-210:11
课时85 视频 ResNet实战-307:31
课时86 视频 ResNet实战-410:07
课时87 视频 实战小结12:49
章节11:循环神经网络RNN&LSTM
课时88 视频 时间序列表示方法14:57
课时89 视频 RNN原理-109:55
课时90 视频 RNN原理-209:39
课时91 视频 RNN Layer使用-109:42
课时92 视频 RNN Layer使用-209:01
课时93 视频 时间序列预测实战13:27
课时94 视频 梯度弥散与梯度爆炸12:50
课时95 视频 LSTM原理-109:01
课时96 视频 LSTM原理-210:53
课时97 视频 LSTM Layer使用08:44
课时98 视频 情感分类问题实战15:15
章节12:迁移学习-实战宝可梦精灵
课时99 视频 Pokemon数据集12:30
课时100 视频 数据预处理12:20
课时101 视频 自定义数据集实战-106:49
课时102 视频 自定义数据集实战-208:42
课时103 视频 自定义数据集实战-311:04
课时104 视频 自定义数据集实战-409:58
课时105 视频 自定义数据集实战-511:28
课时106 视频 自定义网络09:45
课时107 视频 自定义网络训练与测试07:37
课时108 视频 自定义网络实战07:39
课时109 视频 迁移学习05:35
课时110 视频 迁移学习实战10:09
章节13:自编码器Auto-Encoders
课时111 视频 无监督学习10:02
课时112 视频 Auto-Encoder原理10:12
课时113 视频 Auto-Encoder变种09:59
课时114 视频 Adversarial Auto-Encoder10:08
课时115 视频 变分Auto-Encoder引入10:12
课时116 视频 Reparameterization trick10:05
课时117 视频 变分自编码器VAE11:03
课时118 视频 Auto-Encoder实战-110:01
课时119 视频 Auto-Encoder实战-210:10
课时120 视频 变分Auto-Encoder实战-105:55
课时121 视频 变分Auto-Encoder实战-206:37
章节14:对抗生成网络GAN
课时122 视频 数据的分布09:11
课时123 视频 画家的成长历程13:04
课时124 视频 GAN原理10:01
课时125 视频 纳什均衡-D09:57
课时126 视频 纳什均衡-G13:42
课时127 视频 JS散度的缺陷16:36
课时128 视频 EM距离09:57
课时129 视频 WGAN与WGAN-GP15:43
课时130 视频 GAN实战-GD实现09:58
课时131 视频 GAN实战-网络训练17:24
课时132 视频 GAN实战-网络训练鲁棒性09:46
课时133 视频 WGAN-GP实战16:17
章节15:选看:Ubuntu开发环境安装
课时134 视频 Ubuntu系统安装10:01
课时135 视频 Anaconda安装10:10
课时136 视频 CUDA 10安装10:10
课时137 视频 环境变量配置10:05
课时138 视频 cudnn安装10:14
课时139 视频 PyCharm安装与配置10:59
章节16:选看:人工智能发展简史
课时140 视频 生物神经元结构04:06
课时141 视频 感知机的提出10:07
课时142 视频 BP神经网络10:07
课时143 视频 CNN和LSTM的发明10:19
课时144 视频 人工智能的低潮10:07
课时145 视频 深度学习的诞生10:13
课时146 视频 深度学习的繁荣12:13
章节17:选看:Numpy实战BP神经网络
课时147 视频 权值的表示10:05
课时148 视频 多层感知机的实现10:18
课时149 视频 多层感知机前向传播10:06
课时150 视频 多层感知机反向传播10:10
课时151 视频 多层感知机反向传播-210:06
课时152 视频 多层感知机反向传播-310:18
课时153 视频 多层感知机的训练10:24
课时154 视频 多层感知机的测试12:06
课时155 视频 实战小结
**** 本内容需购买 ****
啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 确实是难得好帖啊,顶先 啥也不说了,感谢楼主分享哇! 噜啦啦噜啦啦 啥也不说了,感谢楼主分享哇!
页:
[1]