百战-AI算法工程师就业班2022年(完结)
百战-人工智能2022/├──1--人工智能基础-快速入门
| ├──1--人工智能就业、薪资、各行业应用
| | ├──1-人工智能就业前景与薪资 .mp452.07M
| | ├──2-人工智能适合人群与必备技能 .mp444.57M
| | ├──3-人工智能时代是发展的必然 .mp423.22M
| | └──4-人工智能在各领域的应用 .mp457.73M
| └──2--机器学习和深度学习、有监督和无监督
| | ├──1-人工智能常见流程 .mp489.62M
| | ├──2-机器学习不同的学习方式 .mp483.51M
| | ├──3-深度学习比传统机器学习有优势 .mp484.81M
| | ├──4-有监督机器学习任务与本质 .mp437.50M
| | └──5-无监督机器学习任务与本质 .mp450.15M
├──10--机器学习与大数据-Kaggle竞赛实战
| ├──1--药店销量预测案例
| | ├──1-Rossmann药店销量预测_kaggle的介绍 .mp436.33M
| | ├──2-对数据字段的介绍_导包 .mp419.90M
| | ├──3-自定义损失函数 .mp421.12M
| | ├──4-对数据里面的目标变量sales的一个分析 .mp444.88M
| | ├──5-数据的预处理 .mp4111.81M
| | ├──6-模型的训练_评估 .mp466.64M
| | └──7-kaggle竞赛网站学习 .mp4172.16M
| └──2--网页分类案例
| | ├──1-Kaggle网页分类竞赛介绍 .mp425.08M
| | ├──10-使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_02 .mp485.63M
| | ├──11-使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_03 .mp468.80M
| | ├──12-使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_04 .mp474.74M
| | ├──2-评估指标ROC和AUC .mp456.19M
| | ├──3-评估指标ROC和AUC .mp449.03M
| | ├──4-竞赛其他相关提交成绩排行榜 .mp440.19M
| | ├──5-数据导入 .mp468.41M
| | ├──6-MLlib对网页分类竞赛数据预处理 .mp4102.96M
| | ├──7-MLlib对网页分类竞赛数据预处理_模型训练 .mp471.27M
| | ├──8-MLlib对网页分类竞赛模型训练_模型训练评估_搜索最佳超参数 .mp462.48M
| | └──9-使用SparkML对网页分类竞赛数据预处理_模型训练_交叉验证调参_01 .mp487.47M
├──11--机器学习与大数据-海量数据挖掘工具
| ├──1--Spark计算框架基础
| | ├──1-Spark特性_01 .mp441.68M
| | ├──10-分布式计算所需进程 .mp426.30M
| | ├──11-两种算子操作本质区别 .mp456.31M
| | ├──12-Spark算子操作实战讲解_代码实战WordCount_01 .mp469.39M
| | ├──13-Spark算子操作实战讲解_代码实战WordCount_02 .mp456.06M
| | ├──14-Spark算子操作实战讲解_代码实战WordCount_03 .mp444.12M
| | ├──15-Spark算子操作实战讲解_代码实战WordCount_04 .mp441.91M
| | ├──2-Spark特性_02 .mp435.15M
| | ├──3-Spark对比hadoop优势 .mp419.34M
| | ├──4-回顾hadoop讲解shuffle .mp435.80M
| | ├──5-分布式计算框架Shuffle的原理_01 .mp446.22M
| | ├──6-分布式计算框架Shuffle的原理_02 .mp444.94M
| | ├──7-分布式计算框架Shuffle的原理_03 .mp429.26M
| | ├──8-Spark的RDD特性_01 .mp433.08M
| | └──9-Spark的RDD特性_02 .mp433.41M
| ├──2--Spark计算框架深入
| | ├──1-Spark数据缓存机制 .mp454.43M
| | ├──10-讲解构建稀疏和稠密向量_01 .mp480.62M
| | ├──11-讲解构建稀疏和稠密向量_01 .mp4101.76M
| | ├──12-构建LabeledPoint .mp4111.08M
| | ├──13-介绍SparkMLlib模块中实现的算法和调用 .mp491.18M
| | ├──2-Spark宽依赖和窄依赖_01 .mp439.74M
| | ├──3-Spark宽依赖和窄依赖_02 .mp438.86M
| | ├──4-Spark宽依赖和窄依赖_03 .mp428.03M
| | ├──5-Spark术语总结 .mp489.66M
| | ├──6-分布式文件系统Block块的大小配置 .mp4114.54M
| | ├──7-Spark程序启动运行流程详解_01 .mp449.37M
| | ├──8-Spark程序启动运行流程详解_02 .mp471.40M
| | └──9-Spark程序启动运行流程详解_03 .mp447.28M
| └──3--Spark机器学习MLlib和ML模块
| | ├──1-SparkMLlib对于逻辑回归算法的调用 .mp4170.37M
| | ├──10-SparkMLlib调用KMeans聚类_调用决策树(1)_3 .mp4104.55M
| | ├──11-使用逻辑回归和随机森林对股票Stock预测案例实战_1 .mp489.72M
| | ├──12-使用逻辑回归和随机森林对股票Stock预测案例实战_2 .mp492.22M
| | ├──13-使用逻辑回归和随机森林对股票Stock预测案例实战_3 .mp484.20M
| | ├──14-从数据转化到训练集的构建 .mp4146.40M
| | ├──15-模型的训练以及评估和调超参_1 .mp484.62M
| | ├──16-模型的训练以及评估和调超参_2 .mp488.90M
| | ├──17-模型的训练以及评估和调超参_3 .mp4161.69M
| | ├──18-SparkML机器学习库概念讲解_1 .mp4146.78M
| | ├──19-SparkML机器学习库概念讲解_2 .mp4121.35M
| | ├──2-SparkMLlib调用逻辑回归_自定义阈值_1 .mp4120.62M
| | ├──20-SparkML机器学习库代码实战讲解_1 .mp4146.48M
| | ├──21-SparkML机器学习库代码实战讲解_2 .mp4169.53M
| | ├──22-SparkML网页分类案例代码实战续(1)_1 .mp4143.99M
| | ├──23-SparkML网页分类案例代码实战续(1)_2 .mp4143.95M
| | ├──24-SparkML网页分类案例代码实战续(2)_1 .mp4177.12M
| | ├──25-SparkML网页分类案例代码实战续(2)_2 .mp499.25M
| | ├──26-SparkML网页分类案例代码实战续(3) .mp49.82M
| | ├──3-SparkMLlib调用逻辑回归_自定义阈值_2 .mp4109.35M
| | ├──4-SparkMLlib调用逻辑回归_使用标准归一化_1 .mp4105.05M
| | ├──5-SparkMLlib调用逻辑回归_使用标准归一化_2 .mp4255.32M
| | ├──6-SparkMLlib调用逻辑回归_使用标准归一化_3 .mp463.11M
| | ├──7-SparkMLlib调用逻辑回归_使用标准归一化_4 .mp4140.87M
| | ├──8-SparkMLlib调用KMeans聚类_调用决策树(1)_1 .mp480.22M
| | └──9-SparkMLlib调用KMeans聚类_调用决策树(1)_2 .mp4145.67M
├──12--机器学习与大数据-推荐系统项目实战
| ├──1--推荐系统--流程与架构
| | ├──1-推荐系统_隐式用户反馈_1 .mp488.31M
| | ├──10-推荐系统列表_关联特征权重_基本特征权重的计算_2 .mp4112.85M
| | ├──11-推荐系统列表_关联特征权重_基本特征权重的计算_3 .mp4103.28M
| | ├──12-推荐系统_数据源_1 .mp479.07M
| | ├──13-推荐系统_数据源_2 .mp482.90M
| | ├──2-推荐系统_隐式用户反馈_2 .mp4119.78M
| | ├──3-推荐系统_协同过滤_1 .mp460.31M
| | ├──4-推荐系统_协同过滤_2 .mp461.36M
| | ├──5-推荐系统_协同过滤_3 .mp460.51M
| | ├──6-推荐系统_协同过滤_4 .mp456.16M
| | ├──7-推荐系统架构_实时_离线_1 .mp4100.65M
| | ├──8-推荐系统架构_实时_离线_2 .mp4104.74M
| | └──9-推荐系统列表_关联特征权重_基本特征权重的计算_1 .mp477.80M
| ├──2--推荐系统--数据预处理和模型构建评估实战
| | ├──1-HQL语句_python脚本构建中间结果_1 .mp4155.76M
| | ├──10-MLlib调用算法计算模型文件并存储_2 .mp493.65M
| | ├──11-MLlib调用算法计算模型文件并存储_3 .mp4107.32M
| | ├──12-ACC准确率和AUC面积的计算以及意义 .mp4214.40M
| | ├──2-HQL语句_python脚本构建中间结果_2 .mp4122.28M
| | ├──3-HQL语句_python脚本构建中间结果_3 .mp4123.74M
| | ├──4-HQL语句_python脚本构建中间结果_4 .mp4111.87M
| | ├──5-推荐系统_数据预处理_spark构建特征索引_标签列_1 .mp4116.88M
| | ├──6-spark构建特征索引_标签列_2 .mp491.86M
| | ├──7-spark构建特征索引_标签列_3 .mp497.86M
| | ├──8-spark构建特征索引_标签列_4 .mp498.61M
| | └──9-MLlib调用算法计算模型文件并存储_1 .mp499.64M
| └──3--推荐系统--模型使用和推荐服务
| | ├──1-推荐模型文件使用思路 .mp461.89M
| | ├──10-Dubbo推荐服务演示_SparkMLlib介绍_1 .mp4110.16M
| | ├──11-Dubbo推荐服务演示_SparkMLlib介绍_2 .mp4140.10M
| | ├──12-Dubbo推荐服务演示_SparkMLlib介绍_3 .mp4157.45M
| | ├──2-Redis数据库安装及其使用 .mp447.93M
| | ├──3-实时在线推荐列表计算逻辑代码讲解_1 .mp4165.06M
| | ├──4-实时在线推荐列表计算逻辑代码讲解_2 .mp498.49M
| | ├──5-实时在线推荐列表计算逻辑代码讲解_3 .mp490.57M
| | ├──6-实时在线推荐列表计算逻辑代码讲解_4 .mp494.68M
| | ├──7-使用Dubbo将推荐系统做成服务_1 .mp482.21M
| | ├──8-使用Dubbo将推荐系统做成服务_2 .mp4103.88M
| | └──9-使用Dubbo将推荐系统做成服务_3 .mp4119.95M
├──13--深度学习-原理和进阶
| ├──1--神经网络算法
| | ├──1-神经网络是有监督的算法_生物神经元到人工神经元 .mp494.41M
| | ├──2-三种常见的激活函数_网络拓扑介绍_优化算法 .mp453.63M
| | ├──3-单层神经网络正向传播计算过程_用神经网络理解逻辑回归做多分类 .mp467.67M
| | ├──4-用神经网络理解Softmax回归 .mp467.20M
| | ├──5-隐藏层的意义_隐藏层相当于去做预处理_升维降维 .mp4117.52M
| | ├──6-多节点网络输出_sklearn中NN模块的介绍 .mp490.57M
| | ├──7-sklearn中NN模型的代码使用 .mp4123.62M
| | ├──8-隐藏层激活函数必须是非线性的 .mp421.95M
| | └──9-tensorflow概要_conda创建虚拟环境_CPU版本的tensorflow安装 .mp4155.50M
| ├──2--TensorFlow深度学习工具
| | ├──1-CUDA下载地址_CUDA显卡白名单地址 .mp468.65M
| | ├──2-CUDA安装_cudnn安装_环境变量配置_检验是否安装成功 .mp474.12M
| | ├──3-Tensorflow代码运行机制_TF基础的代码 .mp4120.73M
| | ├──4-TF实现线性回归解析解的方式_TF实现线性回归梯度下降的方式 .mp4173.47M
| | ├──5-TF实现线性回归BGD的方式_使用Optimizer_每轮打乱数据 .mp4233.26M
| | ├──6-TF实现Softmax回归来识别MNIST手写数字 .mp4137.04M
| | └──7-TF实现DNN来识别MNIST手写数字 .mp4132.73M
| └──3--反向传播推导_Python代码实现神经网络
| | ├──1-反向传播_链式求导法则 .mp486.47M
| | ├──2-反向传播推导(一) .mp4127.90M
| | ├──3-反向传播推导(二)从输出层到最后一个隐藏层 .mp4121.37M
| | ├──4-反向传播推导(三)从输出层到最后一个隐藏层Softmax多分类为例 .mp481.20M
| | ├──5-反向传播推导(四)关于Δ和a还有梯度的更新事宜 .mp434.57M
| | ├──6-python实现神经网络训练代码讲解(一) .mp484.17M
| | └──7-python实现神经网络正向反向传播训练 .mp4112.23M
├──14--深度学习-图像识别原理
| ├──1--卷积神经网络原理
| | ├──1-回顾深度神经网络_卷积层是局部连接 .mp4131.17M
| | ├──2-单通道卷积的计算 .mp4104.01M
| | ├──3-彩色图片卷积的计算 .mp452.79M
| | ├──4-卷积层权值共享 .mp463.93M
| | ├──5-卷积的补充与Padding填充模式 .mp497.00M
| | ├──6-卷积的计算TF中的API操作与参数 .mp493.50M
| | ├──7-池化的概念和TF中的API的操作与参数 .mp464.09M
| | └──8-经典的CNN架构和LeNet5 .mp4137.21M
| ├──2--卷积神经网络优化
| | ├──1-AlexNet网络结构_连续使用小的卷积核好处 .mp4109.38M
| | ├──10-Optimizer_Adagrad_Adadelta_RMSprop .mp4121.41M
| | ├──11-Optimizer_Adam .mp4141.12M
| | ├──2-Dropout技术点思想和运用 .mp4113.94M
| | ├──3-数据增强技术点_CNN对MNIST数据集分类_卷积池化代码 .mp477.55M
| | ├──4-CNN对MNIST数据集分类_全连接层以及训练代码 .mp4125.88M
| | ├──5-深度学习网络对应ACC准确率忽然下降的思考点 .mp4104.08M
| | ├──6-减轻梯度消失问题中激活函数发挥的作用 .mp442.02M
| | ├──7-减轻梯度消失问题中参数初始化发挥的作用 .mp466.51M
| | ├──8-VGG网络结构_以及1乘1的卷积核的作用和好处 .mp4123.25M
| | └──9-Optimizer_SGD_Momentum .mp489.70M
| ├──3--经典卷积网络算法
| | ├──1-Keras介绍_以及不同项目调用不同的python环境和CUDA环境 .mp4141.12M
| | ├──2-VGG16_Fine-tuning_对MNIST做手写数字识别 .mp4116.63M
| | ├──3-InceptionV1_V2 .mp4165.86M
| | ├──4-InceptionV3_以及InceptionV3对皮肤癌图片识别 .mp4166.97M
| | ├──5-ResNet残差单元_BottlenetBlocK .mp4121.51M
| | ├──6-DenseNet和Keras里面的实现 .mp4150.61M
| | ├──7-DenseNet在Keras里面的代码实现 .mp466.75M
| | ├──8-BatchNormalization .mp499.23M
| | └──9-Mobilenet网络架构 .mp4150.05M
| ├──4--古典目标检测
| | ├──1-图像识别任务_古典目标检测 .mp4196.48M
| | ├──2-使用OpenCV调用分类器找到目标框 .mp498.21M
| | ├──3-IOU以及python计算的代码 .mp423.56M
| | ├──4-R-CNN和SPP-net .mp4124.06M
| | └──5-从FastRCNN引入FasterRCNN .mp4120.81M
| └──5--现代目标检测之FasterRCNN
| | ├──1-回顾RCNN_SPPnet_Fast-RCNN .mp4121.18M
| | ├──2-FasterRNN的核心RPN_正向传播的框过滤_NMS .mp4214.14M
| | ├──3-NMS代码实现流程_mAP目标检测平均指标 .mp4157.18M
| | ├──4-FasterRCNN论文讲解_从介绍到RPN的loss .mp4210.02M
| | └──5-FasterRCNN论文讲解_从RPN损失到评估指标对比 .mp4247.99M
├──15--深度学习-图像识别项目实战
| ├──1--车牌识别
| | ├──1-基于CascadeClassifier来提取目标框做车牌识别代码详解_01 .mp483.16M
| | ├──2-基于CascadeClassifier来提取目标框做车牌识别代码详解_02 .mp486.40M
| | ├──3-基于CascadeClassifier来提取目标框做车牌识别代码详解_03 .mp448.80M
| | ├──4-基于CascadeClassifier来提取目标框做车牌识别代码详解_04 .mp473.07M
| | └──5-车牌识别项目关于目标检测的问题 .mp439.48M
| ├──2--自然场景下的目标检测及源码分析
| | ├──1-FasterRCNN项目代码_环境说明_数据集详解_项目结构说明 .mp4116.49M
| | ├──10-FasterRCNN代码_构建head .mp467.56M
| | ├──11-FasterRCNN代码_构建RPN网络_01 .mp4124.40M
| | ├──12-FasterRCNN代码_构建RPN网络_02 .mp488.47M
| | ├──13-FasterRCNN代码_根据RPN网络得到校正后的预测的框_01 .mp483.97M
| | ├──14-FasterRCNN代码_根据RPN网络得到校正后的预测的框_02 .mp4119.92M
| | ├──15-FasterRCNN代码_bbox剪裁_NMS非极大值抑制 .mp491.40M
| | ├──16-FasterRCNN代码_给RPN准备正负例样本_01 .mp4100.30M
| | ├──17-FasterRCNN代码_给RPN准备正负例样本_02 .mp4165.71M
| | ├──18-FasterRCNN代码_给RPN准备正负例样本_03 .mp443.58M
| | ├──19-FasterRCNN代码_给RPN准备正负例样本_04 .mp446.68M
| | ├──2-FasterRCNN项目代码_数据加载 .mp496.17M
| | ├──20-FasterRCNN代码_给RPN准备正负例样本_05 .mp478.02M
| | ├──21-FasterRCNN代码_给RPN准备正负例样本_06 .mp4114.63M
| | ├──22-FasterRCNN代码_给RPN准备正负例样本_07 .mp4100.02M
| | ├──23-FasterRCNN代码_给RPN准备正负例样本_08 .mp457.32M
| | ├──24-FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_01 .mp453.41M
| | ├──25-FasterRCNN代码_给最终RCNN准备正负例样本_ROI池化_02 .mp474.40M
| | ├──26-FasterRCNN代码_添加Loss损失_smoothL1loss .mp476.44M
| | ├──3-FasterRCNN项目代码_数据增强 .mp471.78M
| | ├──4-FasterRCNN项目代码_数据初始化 .mp473.27M
| | ├──5-FasterRCNN项目代码_模型的训练 .mp439.33M
| | ├──6-回归整体训练流程_详解读取数据blob_01 .mp481.18M
| | ├──7-回归整体训练流程_详解读取数据blob_02 .mp475.71M
| | ├──8-回归整体训练流程_详解读取数据blob_03 .mp439.22M
| | └──9-回归整体训练流程_详解读取数据blob_04 .mp464.48M
| └──3--图像风格迁移
| | ├──1-图片风格融合项目_架构_代码实现要点_1 .mp481.07M
| | ├──2-图片风格融合项目_架构_代码实现要点_2 .mp485.15M
| | ├──3-图片风格融合项目_架构_代码实现要点_3 .mp475.40M
| | └──4-图片风格融合项目_架构_代码实现要点_4 .mp486.94M
├──16--深度学习-目标检测YOLO(V1-V4全版本)实战
| ├──1--YOLOv1详解
| | ├──1-YOLOv1论文详解_算法特点介绍 .mp4179.69M
| | ├──2-YOLOv1论文详解_网络架构_思想 .mp4215.92M
| | ├──3-YOLOv1论文详解_训练中的技巧_Loss损失函数 .mp4253.21M
| | └──4-YOLOv1论文详解_NMS_局限性 .mp482.07M
| ├──2--YOLOv2详解
| | ├──1-YOLOv2论文详解_BN_高分辨率_引入AnchorBoxes .mp4158.76M
| | ├──2-YOLOv2论文详解_mAP更better的一些点 .mp4257.43M
| | ├──3-YOLOv2论文详解_Darknet19_分类数据和检测数据集融合_多标签 .mp4141.41M
| | └──4-YOLOv2论文详解_层级分类_层级分类用于目标检测 .mp4183.51M
| ├──3--YOLOv3详解
| | ├──1-YOLOv3论文详解_每个框都要预测多个类别概率 .mp486.51M
| | ├──2-YOLOv3论文详解_引入了FPN的思想特征融合_多路输出_DarkNet53 .mp4158.58M
| | ├──3-YOLOv3论文详解_总结_FocalLoss .mp4147.48M
| | ├──4-YOLOv4论文概述_介绍 .mp4139.49M
| | └──5-YOLOv4论文概述_BOS_BOF .mp4297.31M
| ├──4--YOLOv3代码实战
| | ├──1-YOLOv3代码剖析_项目介绍 .mp4157.02M
| | ├──2-YOLOv3代码剖析_聚类anchors_构建backbone主干网络 .mp4238.06M
| | ├──3-YOLOv3代码剖析_model输出之后的预测框的计算 .mp4223.57M
| | ├──4-YOLOv3代码剖析_使用model预测的其余代码 .mp486.53M
| | ├──5-YOLOv3代码剖析_weights到h5模型的转换 .mp4144.69M
| | └──6-YOLOv3代码剖析_模型的训练部分详解 .mp4316.56M
| └──5--YOLOv4详解
| | ├──1-YOLOv4_BOF_DropBlock_FocalLoss .mp4207.14M
| | ├──2-YOLOv4_BOF_GIoU_DIoU_CIoU .mp490.48M
| | ├──3-YOLOv4_BOS_ASPP_SAM_SoftNMS_Mish .mp4216.07M
| | └──4-YOLOv4_BOS_SAM_PAN_CSP_CmBN .mp4220.91M
├──17--深度学习-语义分割原理和实战
| ├──1--上采样_双线性插值_转置卷积
| | ├──1-前言 .mp419.46M
| | ├──2-上采样_repeat .mp423.90M
| | ├──3-线性插值 .mp434.48M
| | ├──4-双线性插值 .mp4125.71M
| | ├──5-转置卷积_以及TF的API .mp4114.25M
| | ├──6-双线性插值作为转置卷积核的初始参数 .mp4145.01M
| | ├──7-ROI Align .mp458.38M
| | ├──8-FPN思想与网络结构 .mp492.14M
| | └──9-FPN应用于FasterRCNN_ResNetFPN .mp495.52M
| ├──2--医疗图像UNet语义分割
| | ├──1-语义分割的基本概念 .mp418.33M
| | ├──2-FCN全卷积网络做语义分割 .mp436.54M
| | ├──3-UNet网络结构 .mp430.41M
| | └──4-UNet网络医疗图像的语义分割 .mp481.21M
| └──3--蒙版弹幕MaskRCNN语义分割
| | ├──1-MaskRCNN网络结构 .mp4106.38M
| | ├──2-MaskRCNN的项目展示 .mp4250.54M
| | ├──3-MaskRCNN网络架构回顾 .mp4151.34M
| | ├──4-MaskRCNN根据文档和论文总结重要的知识点 .mp4239.08M
| | ├──5-MaskRCNN项目关于运行代码环境的说明 .mp444.16M
| | └──6-MaskRCNN源码config和model .mp4244.48M
├──18--深度学习-人脸识别项目实战
| ├──1-人脸识别任务种类_具体做法思路 .mp440.67M
| ├──10-人脸识别项目代码_加载MTCNN模型 .mp472.07M
| ├──11-人脸识别项目代码_读取图片带入MTCNN网络给出人脸候选框 .mp466.61M
| ├──12-FaceNet论文_摘要和前情介绍 .mp471.54M
| ├──13-FaceNet论文_相关的介绍 .mp439.55M
| ├──14-FaceNet论文_TripleLoss思路来源和目标 .mp444.25M
| ├──15-FaceNet论文_TripleLoss损失函数 .mp463.78M
| ├──16-FaceNet论文_TripleSelection很至关重要 .mp4131.75M
| ├──17-FaceNet论文_ZF和Inception对比_总结 .mp459.21M
| ├──18-人脸识别项目代码_FaceNet模型加载和使用 .mp442.82M
| ├──19-人脸识别项目代码_人脸匹配以及最后的绘图展示 .mp440.37M
| ├──2-开源的FaceNet项目介绍 .mp438.07M
| ├──3-人脸识别项目代码整体结构 .mp430.40M
| ├──4-MTCNN论文_摘要和介绍 .mp468.50M
| ├──5-MTCNN论文_网络整体架构 .mp476.57M
| ├──6-PRelu_每阶段输出多分支意义 .mp456.12M
| ├──7-每一个阶段每个分支的Loss损失_整合每个分支的Loss .mp469.95M
| ├──8-训练数据的准备_每一阶段训练的流程 .mp498.08M
| └──9-总结MTCNN_缩放因子_注意3阶段网络里面的全连接 .mp454.79M
├──19--深度学习-NLP自然语言处理原理和进阶
| ├──1--词向量与词嵌入
| | ├──1-N-gram语言模型 .mp4116.32M
| | ├──2-NPLM神经网络语言模型 .mp4155.81M
| | ├──3-词向量的作用 .mp458.00M
| | ├──4-CBOW模型思想和计算过程 .mp4196.59M
| | ├──5-Skip-gram模型思想和计算过程 .mp444.35M
| | ├──6-Huffman树_分层Softmax的思想 .mp4113.79M
| | ├──7-分层Softmax应用到CBOW模型上 .mp464.28M
| | └──8-负采样和负采样应用到CBOW模型上 .mp466.07M
| ├──2--循环神经网络原理与优化
| | ├──1-理解RNN循环神经网络拓扑结构 .mp4122.64M
| | ├──2-理解RNN循环神经网络计算流程 .mp455.91M
| | ├──3-利用RNN循环神经网络对MNIST手写数字识别 .mp4127.75M
| | ├──4-理解LSTM长短时记忆_记住Topo和公式 .mp4185.30M
| | ├──5-VanillaRNN的回顾复习 .mp4123.51M
| | ├──6-补充讲一下为什么RNN中链越长越容易梯度消失 .mp444.24M
| | ├──7-LSTM的回顾复习_LSTM手写数字识别 .mp435.32M
| | ├──8-双向RNN_LSTM .mp452.01M
| | └──9-RNN里面应用的Topology结构 .mp423.04M
| ├──3--从Attention机制到Transformer
| | ├──1-Seq2Seq中Attention注意力机制 .mp487.67M
| | ├──2-Transformer_Self-Attention_Multi-head .mp4100.40M
| | └──3-Transformer_Positional_使用逻辑_网络结构总结 .mp4102.40M
| └──4--ELMO_BERT_GPT
| | ├──1-ELMO .mp462.44M
| | ├──2-BERT理论 .mp499.73M
| | └──3-ERNIE_GPT .mp456.34M
├──2--人工智能基础-Python基础
| ├──1--Python开发环境搭建
| | ├──1-下载Miniconda运行环境 .mp4100.75M
| | ├──2-Miniconda安装和测试 .mp457.12M
| | ├──3-Pycharm安装和代码运行 .mp471.57M
| | ├──4-Jupyter安装和代码运行 .mp437.10M
| | ├──5-Jupyter常用快捷键 .mp432.23M
| | ├──6-Conda虚拟环境创建与Python模块安装 .mp473.12M
| | └──7-关联虚拟环境运行代码 .mp438.14M
| └──2--Python基础语法
| | ├──1-Python是强类型的动态脚本语言 .mp444.15M
| | ├──10-Python_集合操作_列表 .mp434.71M
| | ├──11-Python_集合操作_列表的基本操作 .mp449.44M
| | ├──12-Python_集合操作_列表的常用方法 .mp437.35M
| | ├──13-Python_集合操作_元组 .mp443.46M
| | ├──14-Python_集合操作_字典和常见操作 .mp438.01M
| | ├──15-Python_集合操作_字典keys方法_enumerate函数 .mp422.40M
| | ├──16-Python_os模块_shutil模块 .mp451.54M
| | ├──17-Python_打开并读取文件_中文编码问题 .mp458.82M
| | ├──18-Python_函数_定义_调用_返回值_注释 .mp423.77M
| | ├──19-Python_函数_局部变量_全局变量 .mp431.20M
| | ├──2-Python_控制语句_单双分支 .mp450.66M
| | ├──20-Python_函数_默认参数_可变参数 .mp424.47M
| | ├──21-Python_函数_递归 .mp423.46M
| | ├──22-Python_函数式编程_高阶函数 .mp424.65M
| | ├──23-Python_函数式编程_map_reduce_filter_匿名函数 .mp437.86M
| | ├──24-Python_函数_闭包 .mp441.61M
| | ├──25-Python_函数_装饰器 .mp430.35M
| | ├──26-Python_类对象_定义与实例化对象 .mp444.21M
| | ├──27-Python_类对象_实例属性和方法_类属性和方法 .mp438.35M
| | ├──28-Python_类对象_内置方法 .mp429.17M
| | ├──29-Python_类对象_运算符重载_私有对象方法_isinstance函数 .mp438.46M
| | ├──3-Python_控制语句_多分支_三元条件运算符 .mp431.02M
| | ├──30-Python_类对象_面向对象三大特性_类的继承 .mp424.66M
| | ├──31-Python_类对象_子类复用父类构造器和方法_方法重写 .mp432.00M
| | ├──4-Python_控制语句_while循环 .mp425.02M
| | ├──5-Python_控制语句_for循环 .mp422.82M
| | ├──6-Python_控制语句_嵌套循环 .mp436.15M
| | ├──7-Python_控制语句_break_continue .mp425.23M
| | ├──8-Python_切片操作 .mp440.20M
| | └──9-Python_数据类型 .mp425.38M
├──20--深度学习-NLP自然语言处理项目实战
| ├──1--词向量
| | ├──1-回顾了词向量里面训练的Topology .mp4121.72M
| | ├──2-Word2Vec项目代码_加载数据_构建字典 .mp496.76M
| | ├──3-Word2Vec项目代码_构建一个个批次数据 .mp482.29M
| | ├──4-Word2Vec项目代码_正向传播的Graph构建_NCE损失的计算本质 .mp4102.84M
| | ├──5-Word2Vec项目代码_评估比较相似度_最后的训练绘图 .mp483.28M
| | └──6-Word2Vec项目代码_总结串讲 .mp422.52M
| ├──2--自然语言处理--情感分析
| | ├──1-Keras实战RNN以及词嵌入来做情感分析 .mp471.10M
| | ├──2-数据预处理_01 .mp479.65M
| | ├──3-数据预处理_02 .mp445.68M
| | ├──4-代码讲解_01 .mp452.29M
| | ├──5-代码讲解_02 .mp460.85M
| | ├──6-代码讲解_03 .mp453.89M
| | ├──7-代码讲解_04 .mp457.19M
| | └──8-代码讲解_05 .mp435.88M
| ├──3--AI写唐诗
| | ├──1-AI写唐诗_数据的读取_字典的构建_文本的索引化 .mp4114.96M
| | ├──2-AI写唐诗_训练数据的构建 .mp469.75M
| | ├──3-MultiRNNCell单元 .mp438.93M
| | ├──4-AI写唐诗_从词嵌入到构建RNN再到输出层概率输出 .mp467.03M
| | ├──5-AI写唐诗_损失的计算_梯度的求解截断和更新_最终的训练代码 .mp461.73M
| | └──6-AI写唐诗_模型的使用_增加随机性 .mp493.87M
| ├──4--Seq2Seq聊天机器人
| | ├──1-从AI写唐诗到Seq2Seq再到Encoder-Decoder .mp4118.79M
| | ├──2-Seq2Seq版Chatbot的数据预处理 .mp493.85M
| | └──3-Seq2Seq版Chatbot训练和模型使用 .mp4133.29M
| ├──5--实战NER命名实体识别项目
| | ├──1-回顾了一下CRF训练和使用过程 .mp473.72M
| | ├──2-介绍了代码目录结构 .mp423.44M
| | ├──3-NER代码读取数据和预处理 .mp497.61M
| | ├──4-feature进入BiLSTM进行正向传播的过程 .mp470.91M
| | ├──5-通过CRF层来计算Loss损失以及训练 .mp480.51M
| | ├──6-BiLSTM-CRF模型的预测代码 .mp464.10M
| | ├──7-CRF中的特征函数们 .mp4125.97M
| | ├──8-对比逻辑回归_相比HMM优势 .mp4143.56M
| | └──9-补充标注偏置问题_HMM做分词代码结构 .mp4141.43M
| ├──6--BERT新浪新闻10分类项目
| | └──1-BERT新浪新闻10分类项目 .mp4104.54M
| └──7--GPT2聊天机器人
| | └──1-GPT2闲聊机器人 .mp462.28M
├──21--深度学习-OCR文本识别
| ├──1-传统OCR识别_深度学习OCR识别 .mp4369.94M
| ├──10-CRNN项目代码剖析 .mp4306.48M
| ├──2-OCR识别本质就是文字检测和文字识别 .mp4253.34M
| ├──3-OCR识别的CTC损失思想 .mp4327.69M
| ├──4-总结理解深度学习文字识别架构 .mp4121.59M
| ├──5-CTC损失函数的理解 .mp4330.64M
| ├──6-CTC损失函数前向后向算法推导_梯度求导公式推导 .mp4200.52M
| ├──7-CTC前向后向算法代码 .mp4225.41M
| ├──8-GreedySearch和BeamSearch解码的方式与代码逻辑 .mp4308.23M
| └──9-CPTN项目代码剖析 .mp4491.69M
├──24--【加课】Pytorch项目实战
| ├──1--PyTorch运行环境安装_运行环境测试
| | ├──1-PyTorch概述 .mp429.29M
| | ├──2-PyTorch的安装 .mp476.45M
| | ├──3-Pycharm关联PyTorch运行环境 .mp437.96M
| | └──4-Jupyter关联PyTorch运行环境 .mp431.22M
| ├──2--PyTorch基础_Tensor张量运算
| | ├──1-Tensor的创建 .mp455.14M
| | ├──2-修改Tensor的形状_索引操作 .mp476.51M
| | ├──3-广播机制_逐元素操作 .mp444.46M
| | └──4-归并操作_比较操作_矩阵操作 .mp459.39M
| ├──3--PyTorch卷积神经网络_实战CIFAR10
| | ├──1-PyTorch实战CIFAR10数据_读取和展示 .mp483.93M
| | ├──10-PyTorch代码实战加入数据增强 .mp434.15M
| | ├──2-PyTorch实战CIFAR10_构建网络_打印网络层次 .mp458.61M
| | ├──3-PyTorch实战CIFAR10_训练模型_测试模型 .mp451.47M
| | ├──4-PyTorch实战CIFAR10_分类别打印模型准确率 .mp430.60M
| | ├──5-使用全局平均池化_使用LeNet模型 .mp440.97M
| | ├──6-使用集成学习思想训练识别模型 .mp486.96M
| | ├──7-使用VGG16模型提供准确率 .mp452.90M
| | ├──8-torchvision里面的预训练模型 .mp429.84M
| | └──9-迁移学习_PyTorch代码实战冻结预训练模型参数 .mp467.71M
| ├──4--PyTorch循环神经网络_词性标注
| | ├──1-PyTorch词性标注_构建数据和词索引号 .mp428.07M
| | ├──2-PyTorch词性标注_构建词嵌入层LSTM层和词性输出层 .mp447.01M
| | ├──3-PyTorch词性标注_构建数据索引化和训练模型代码 .mp444.59M
| | └──4-PyTorch词性标注_测试模型效果 .mp411.67M
| └──5--PyTorch编码器解码器_机器翻译
| | ├──1-PyTorch中英文翻译_规范化语料库_构建中英文词典索引 .mp450.41M
| | ├──2-PyTorch中英文翻译_数据预处理 .mp442.68M
| | ├──3-PyTorch中英文翻译_索引化数据_转化成Tensor张量_构建Encoder编码器 .mp457.69M
| | ├──4-PyTorch中英文翻译_构建训练函数之Encoder计算 .mp450.92M
| | ├──5-PyTorch中英文翻译_构建带Attention注意力机制的Decoder解码器 .mp479.33M
| | ├──6-PyTorch中英文翻译_构建训练函数之Decoder计算 .mp459.08M
| | ├──7-PyTorch中英文翻译_评估模型函数 .mp456.52M
| | └──8-PyTorch中英文翻译_绘制Attentions注意力权重 .mp433.74M
├──25--【加课】百度飞桨PaddlePaddle实战【新增】
| ├──1--PaddlePaddle框架安装_波士顿房价预测
| | ├──1-安装PaddlePaddle .mp487.34M
| | ├──2-Pycharm运行出现mkl-service或DLL找不到的问题 .mp445.21M
| | ├──3-PaddlePaddle求解线性模型 .mp450.63M
| | ├──4-预测波士顿房价_数据读取_正向传播 .mp460.49M
| | └──5-预测波士顿房价_反向传播_模型保存_模型测试 .mp443.72M
| ├──2--PaddlePaddle卷积网络_病理性近视识别
| | ├──1-预测病理性近视_图片数据读取 .mp497.18M
| | ├──2-预测病理性近视_模型训练 .mp486.66M
| | ├──3-预测病理性近视_定义模型结构_评估模型 .mp484.10M
| | └──4-预测病理性近视_调用经典卷积神经网络 .mp491.83M
| ├──3--PaddleDetection工具_PCB电路板缺陷检测
| | ├──1-PaddleDetection_项目配置 .mp482.88M
| | ├──2-安装配置VisualStudio_解决安装模块pycocotools或cython_bbox编译报错问题 .mp465.48M
| | ├──3-PCB电路板缺陷检测_Images和Annotations .mp483.10M
| | ├──4-PCB电路板缺陷检测_前期数据的分析 .mp4133.78M
| | ├──5-PCB电路板缺陷检测_项目配置文件 .mp442.77M
| | ├──6-PCB电路板缺陷检测_模型训练 .mp464.62M
| | └──7-PCB电路板缺陷检测_模型预测 .mp451.73M
| ├──4--PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
| | ├──1-PaddleOCR_项目配置_CCPD数据集介绍 .mp469.65M
| | ├──2-车牌识别项目_详解数据准备阶段代码 .mp442.93M
| | ├──3-车牌识别项目_运行保存标签和剪切出的车牌图片 .mp457.48M
| | ├──4-车牌识别项目_车牌目标框检测模型训练 .mp461.62M
| | ├──5-车牌识别项目_车牌字符识别模型训练 .mp461.89M
| | └──6-车牌识别项目_车牌识别模型导出及预测 .mp475.61M
| ├──5--PaddleNLP模块_物流信息提取(BiGRU+CRF)
| | ├──1-PaddleNLP_项目配置 .mp449.37M
| | ├──2-PaddleNLP_物流信息提取项目介绍 .mp448.01M
| | ├──3-物流信息提取项目_解决导包显示找不到nul问题 .mp4106.19M
| | ├──4-PaddleNLP_物流信息提取项目_加载数据构建DataSet .mp455.51M
| | ├──5-PaddleNLP_物流信息提取项目_进一步通过DataSet构建出DataLoader .mp451.88M
| | ├──6-PaddleNLP_物流信息提取项目_构建网络模型 .mp448.53M
| | ├──7-PaddleNLP_物流信息提取项目_模型训练 .mp447.34M
| | └──8-PaddleNLP_物流信息提取项目_合并结果并展示_使用预训练的词向量提升效果 .mp480.58M
| └──6--PaddleNLP模块_物流信息提取(ERNIE版)
| | ├──1-PaddleNLP_物流信息提取项目_ERNIE实战_加载数据集构建Dataset .mp449.47M
| | ├──2-PaddleNLP_物流信息提取项目_ERNIE实战_详解Tokenizer作用 .mp457.44M
| | ├──3-PaddleNLP_物流信息提取项目_ERNIE实战_讲解模型训练和评估代码 .mp447.78M
| | └──4-PaddleNLP_物流信息提取项目_ERNIE实战_讲解ChunkEvaluator和输出预测结果 .mp457.88M
├──26--【加课】Linux 环境编程基础
| └──1--Linux
| | ├──1-Linux_课程介绍 .mp43.72M
| | ├──10-Linux_常用命令_clear、touch、cat命令 .mp410.13M
| | ├──11-Linux_常用命令more、head、tail命令 .mp416.32M
| | ├──12-Linux_常用命令_mkdir命令 .mp410.57M
| | ├──13-Linux_常用命令_cp命令 .mp416.08M
| | ├──14-Linux_常用命令_rm、mv命令 .mp431.83M
| | ├──15-Linux_常用命令_vi、vim .mp430.63M
| | ├──16-Linux_常用命令_reboot、halt .mp44.75M
| | ├──17-Linux_常用配置_设置时区 .mp428.84M
| | ├──18-Linux_常用配置_启动网络 .mp415.64M
| | ├──19-Linux_常用配置_修改网段 .mp412.83M
| | ├──2-Linux_Linux简介 .mp417.59M
| | ├──20-Linux_常用配置_设置网络类型 .mp425.66M
| | ├──21-Linux_常用配置_快照与克隆 .mp416.47M
| | ├──22-Linux_Xshell的安装与使用 .mp419.51M
| | ├──23-Linux_上传与下载_Xftp的使用 .mp420.33M
| | ├──24-Linux_上传与下载_lrzsz工具 .mp443.32M
| | ├──25-Linux_文件的压缩与解压缩处理 .mp443.12M
| | ├──26-Linux_安装MySQL .mp479.02M
| | ├──3-Linux_VMWare安装及使用 .mp420.92M
| | ├──4-Linux_安装Linux .mp441.97M
| | ├──5-Linux_目录介绍 .mp420.31M
| | ├──6-Linux_Linux中的路径 .mp418.65M
| | ├──7-Linux_常用命令_pwd命令 .mp45.79M
| | ├──8-Linux_常用命令_cd命令 .mp48.15M
| | └──9-Linux_常用命令_ls与ll命令 .mp434.39M
├──27--【加课】算法与数据结构
| └──1--算法与数据结构
| | ├──1-数据结构与算法简介 .mp435.68M
| | ├──10-哈希表的基本结构 .mp454.34M
| | ├──11-哈希表冲突问题 .mp475.92M
| | ├──12-哈希表冲突问题2 .mp472.30M
| | ├──13-哈希扩容 .mp4111.03M
| | ├──14-递归与栈 .mp450.77M
| | ├──15-线性查找 .mp457.80M
| | ├──16-二分查找 .mp452.32M
| | ├──17-冒泡排序 .mp453.19M
| | ├──18-选择排序 .mp443.29M
| | ├──19-插入排序 .mp431.39M
| | ├──2-大O表示法 .mp425.59M
| | ├──20-归并排序 .mp484.48M
| | ├──21-快速排序 .mp436.63M
| | ├──22-树结构 .mp496.85M
| | ├──23-树结构的遍历 .mp461.05M
| | ├──24-最大堆的增加操作 .mp445.43M
| | ├──25-最大堆的删除操作 .mp445.63M
| | ├──26-二叉树的查找 .mp4100.24M
| | ├──27-二叉树获取最小值 .mp425.21M
| | ├──28-二叉树的添加 .mp472.66M
| | ├──29-二叉树的删除 .mp4120.06M
| | ├──3-线性结构 .mp453.14M
| | ├──4-单线链表1 .mp468.36M
| | ├──5-单链表2 .mp4221.69M
| | ├──6-双链表 .mp4103.57M
| | ├──7-队列(链式) .mp474.12M
| | ├──8-队列(线式) .mp430.99M
| | └──9-栈与双端队列 .mp428.12M
├──3--人工智能基础-Python科学计算和可视化
| ├──1--科学计算模型Numpy
| | ├──1-Numpy_概述_安装_创建数组_获取shape形状 .mp439.89M
| | ├──2-Numpy_array_arange .mp435.45M
| | ├──3-Numpy_random随机数生成 .mp450.54M
| | ├──4-Numpy_ndarray属性_zeros_ones_like等创建数组函数 .mp445.37M
| | ├──5-NumPy_reshape_切片操作_copy函数 .mp434.47M
| | ├──6-Numpy_改变数组维度_数组的拼接 .mp446.50M
| | ├──7-Numpy_数组的切分和转置 .mp428.34M
| | ├──8-Numpy_算术运算_向上向下取整 .mp434.59M
| | └──9-Numpy_聚合函数 .mp423.68M
| ├──2--数据可视化模块
| | ├──1-Matplotlib_概述_绘制直线图 .mp440.79M
| | ├──2-Matplotlib_绘制正余弦曲线_散点图_添加图例 .mp437.73M
| | ├──3-Matplotlib_绘制柱状图_画布切分多个子画布_柱状图对比 .mp452.15M
| | ├──4-Matplotlib_绘制饼图_直方图_同时绘制多组数据分布 .mp429.54M
| | └──5-Matplotlib_绘制等高线图_绘制三维图像 .mp434.90M
| └──3--数据处理分析模块Pandas
| | ├──1-Python_Pandas_Series对象创建 .mp433.35M
| | ├──2-Python_Pandas_DataFrame对象创建 .mp437.19M
| | ├──3-Python_Pandas_获取Series对象的值 .mp422.41M
| | ├──4-Python_Pandas_获取DataFrame对象的值 .mp428.31M
| | ├──5-Python_Pandas_条件过滤 .mp424.66M
| | ├──6-Python_Pandas_空值的删除与填充 .mp446.66M
| | └──7-Python_Pandas_拼接和合并 .mp444.84M
............
├──9--机器学习-概率图模型
| ├──1--贝叶斯分类
| | ├──1-朴素贝叶斯分类算法.mp4126.74M
| | ├──2-TF-IDF.mp453.08M
| | ├──3-NB代码实现解析.mp4126.73M
| | ├──4-sklearn中调用NB_顺便讲解了GridSearchCV.mp4131.83M
| | ├──5-语言模型的设计目的_MLE的作用进行参数估计.mp4107.12M
| | └──6-贝叶斯网络_马尔可夫链.mp438.75M
| ├──2--HMM算法
| | ├──1-HMM隐马的定义.mp436.82M
| | ├──2-HMM隐马的三组参数_三个基本问题.mp4104.28M
| | ├──3-HMM预测问题使用前向算法.mp444.33M
| | ├──4-HMM预测问题使用维特比算法.mp433.43M
| | ├──5-HMM复习_明确概率计算问题要解决的目标.mp476.05M
| | ├──6-前向算法来解决概率计算问题.mp433.05M
| | ├──7-Viterbi算法案例详解.mp4107.12M
| | └──8-Viterbi算法代码实现.mp442.43M
| └──3--CRF算法
| | ├──1-NER与分词和POS的关系_NER的标注策略_NER的主要方法.mp4127.78M
| | ├──2-讲解了一下常见的深度学习LSTM+CRF的网络拓扑.mp471.88M
| | ├──3-了解CRF层添加的好处.mp4105.90M
| | ├──4-EmissionScore_TransitionScore.mp461.33M
| | ├──5-CRF的目标函数.mp423.74M
| | ├──6-计算CRF真实路径的分数.mp450.37M
| | ├──7-计算CRF所有可能路径的总分数.mp4135.58M
| | └──8-通过模型来预测新的句子的序列标签.mp483.16M
└──课件.zip2.54kb
下载地址:
**** Hidden Message ***** 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 啥也不说了,感谢楼主分享哇! 正需要,支持楼主大人了! 啥也不说了,感谢楼主分享哇!