TA的每日心情 | 衰 2024-11-19 20:46 |
---|
签到天数: 244 天 [LV.8]以坛为家I
会|员
- 积分
- 10734
-
|
程序人生
课程方向: |
Python |
课程类型: |
其他 |
本站资源全部免费,回复即可查看下载地址!
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
课程目录:
任务001: 自然语言处理训练营
任务002: 训练营介绍 课程体系介绍
任务003: NLP定义以及歧义性
任务004: 案例:机器翻译01
任务005: 案例:机器翻译02
任务006: NLP的应用场景
任务007: NLP的关键技术
任务008: 算法复杂度介绍
任务009: 课后答疑
任务010: 简单的复杂度的回顾
任务011: 归并排序
任务012: Master Theorem
任务013: 斐波那契数的时间复杂度
任务014: 斐波那契数的空间复杂度
任务015:斐波那契数的循环实现
任务016: P vs NP vs NP Hard vs NP Complete
任务017:问答系统介绍
任务018:Review 一只狗和两只猫的故事 ——心理学与DL,RL-01
任务019:Review 一只狗和两只猫的故事 ——心理学与DL,RL-02
任务020:文本处理的流程
任务021:分词-前向最大匹配
任务022:分词-后向最大匹配
任务023:分词-考虑语言模型
任务024:分词-维特比算法
任务025:拼写错误纠正
任务026: 拼写纠错(2)
任务027:拼写纠错(3)
任务028:停用词过滤,Stemming操作
任务029: 文本的表示
任务030:文本的相似度
任务031:tf-idf 文本表示
任务032:词向量介绍
任务033:学习词向量
任务034:倒排表
任务035:Noisy Channel Model
任务036:语言模型介绍
任务037:Chain Rule和Markov Assumption
任务038:Unigram, Bigram, N-gram
任务039:估计语言模型的概率
任务040:评估语言模型:Perplexity
任务041:Add-one Smoothing
任务042:Add-K Smoothing
任务043:Interpolation
任务044:2019.2.17Review 基于几个例子,书写动态规划-01
任务045:2019.2.17Review 基于几个例子,书写动态规划-02
任务046:2019.2.17Review 基于几个例子,书写动态规划-03
任务047:Lesson6直播
任务048:01在训练数据里没有见过的怎么处理?
任务049:02Good-Turning Smoothing
任务050:03利用语言模型生成句子
任务051:04专家系统与基于概率统计学习
任务052:05专家系统介绍
任务053:06逻辑推理
任务054:07Case Study 风控
任务055:08一些难题
任务056:09机器学习介绍01
任务057:10机器学习介绍02
任务058:11朴素贝叶斯介绍
任务059:12Case Study 垃圾邮件过滤
任务060:lambda表达式
任务061:map函数的应用
任务062:filter过滤器
任务063:reduce函数
任务064:python三大推导式
任务065:闭包
任务066:装饰器一
任务067:装饰器二
任务068:初识numpy
任务069:numpy数组的创建
任务070:numpy的矢量化运算
任务071:numpy的花式索引
任务072:numpy数组转置和轴对换
任务073:条件逻辑转数组
任务074:数学运算与排序
任务075:numpy文件处理
任务076:线性代数函数和随机漫步例子
任务077:词性标注-实战(1)
任务078:词性标注--实战(2)
任务079:词性标注-实战(3)
任务080:词性标注-实战(4)
任务081:词性标注-实战(5)
任务082:初识series类型
任务083:初识dataframe
任务084:重新索引、数学运算和数据对齐
任务085:dataframe和series之间的运算和排序
任务086:层次化索引
任务087:dataframe的层次化索引的访问和汇总运算
任务088:pandas读写csv文件
任务089:pandas读取excel文件并画图
任务090:matplotlib可视化及学习方法建议
任务091:虚拟环境的搭建
任务092:创建第一个爬虫项目
任务093:调试运行爬虫程序
任务094:13-scrapy shell调试方法进行元素定位
任务095:访问首页列表中的url
任务096:获取帖子标题和内容
任务097:处理帖子内容中的特殊标签
任务098:获取帖子发送时间及位于的楼数
任务099:爬虫的bug调试与修复
任务100:数据持久化代码开发
任务101:数据入库
任务102:importance sample negtive sample nce-01
任务103:importance sample negtive sample nce-02
任务104:importance sample negtive sample nce-03
任务105:精确率和召回率
任务106: 逻辑回归介绍
任务107: 逻辑回归是线性分类器
任务108: 逻辑回归的目标函数
任务109: 梯度下降法
任务110: 逻辑回归的梯度下降法
任务111: 当线性可分的时候
任务112: 关于面试的话题-01
任务113: 关于面试的话题-02
任务114: 关于面试的话题-03
任务115: 直播-01
任务116: 直播-02
任务117: 直播-03
任务118: 直播-04
任务119: 直播-05
任务120: 直播-06
任务121: 直播-07
任务122: 直播-08
任务123: 直播-09
任务124: 直播-10
任务125: 直播-11
任务126: 当数据线性可分割的时候
任务127: 限制参数变得太大
任务128: 模型复杂度与过拟合
任务129: 怎么避免过拟合
任务130: 正则介绍
任务131: L1 VS L2
任务132: review 数据结构串讲-01
任务133: review 数据结构串讲-02
任务134: Affective Computing & 情绪识别实战
任务135: 交叉验证(1)
任务136: 交叉验证(2)
任务137: 正则的作用
任务138: MLE VS MAP介绍
任务139: 正则的使用
任务140: 交叉验证
任务141: 参数搜索策略
任务142: 高级:正则的灵活应用
任务143: 总结
任务144: MLE与MAP
任务145: Lasso Regression介绍
任务146: 特征选择技术
任务147: LASSO介绍
任务148: Coordinate Descent
任务149: Coordinate Descent for LASSO
任务150: 其他LASSO Solver
任务151: 变分推断 指数族家族 lda
任务152: Optimization
任务153: Optimization is Everywhere
任务154: Optimization - Categories
任务155: Convex Optimization-Global vs Local Optimal
任务156: 判断一个函数是凸函数
任务157: 解决一个具体问题1
任务158: 解决一个具体问题2
任务159: 回顾凸函数
任务160: 介绍Set Cover Problem
任务161: Approach1- Exhaustive Search
任务162: Approach2-贪心算法
任务163: Approach3-Optimization
任务164: 总结
任务165: 回顾-逻辑回归的梯度下降法
任务166: 梯度下降法的复杂度
任务167: 梯度下降法的收敛分析
任务168: 凸函数性质以及L-Lipschitz条件
任务169: 收敛性推导
任务170: Linear Classifier
任务171:Margin的计算
任务172:SVM的目标函数:Hard constraint
任务173: SVM的目标函数:Soft constraint
任务174: Hinge Loss
任务175: Primal-Dual介绍
任务176: attention transformer bert-01
任务177: attention transformer bert-02
任务178: Capstone项目介绍
任务179: LinearSVM的缺点
任务180: 数据映射到高维
任务181: 拉格朗日-等号条件处理
任务182: 拉格朗日-不等号条件处理
任务183: KKT条件
任务184: SVM的KKT条件
任务185: Primal-Dual介绍
任务186: SVM的Dual推导
任务187: Kernel Trick
任务188: 信息抽取介绍 直播
任务189: 命名实体识别介绍
任务190: 简历分析场景
任务191: 搭建NER分类器
任务192: 方法介绍
任务193: 基于规则的方法
任务194: 投票决策方法
任务195: 特征工程与特征表示01
任务196: 特征工程与特征表示02
任务197: 问答
任务198: 信息抽取介绍
任务199: Ontological Relation
任务200: 关系抽取方法介绍
任务201: 基于规则的方法
任务202: 基于监督学习的方法
任务203: cnn rnn transformer对比-01
任务204: cnn rnn transformer对比-02
任务205: 关系抽取
任务206: bootstrap算法的缺点
任务207: SnowBall算法
任务208: 生成模板
任务209: 生成tuple与模板评估
任务210: 评估记录+过滤
任务211: SnowBall总结
任务212:Entity Disambiguation (实体消歧)介绍
任务213:实体消歧算法
任务214:Entity Resolution(实体统一)
任务215:实体统一算法
任务216:Co-reference Resolution(指代消解)介绍
任务217: 什么是句法分析
任务218: 句法分析的应用
任务219: 语法
任务220: PCFG
任务221: 评估语法树
任务222: 寻找最好的树
任务223: CNF Form
任务224: CKY算法
任务225: 时序模型
任务226: HMM的介绍
任务227: HMM的应用例子
任务228: HMM的参数
任务229: HMM中的Inference问题
任务230: HMM中的F B算法1
任务231: HMM中的F B算法2
任务232: HMM中的F B算法3
任务233: Data Representation
任务234: Latent Variable Models
任务235: Complete vs Incomplete Case
任务236: MLE for Complete and Incomplete Case
任务237: EM Derivation
任务238: Remarks on EM
任务239: K-means
任务240: K-means Cost Function
任务241: MLE for GMM
任务242:模拟面试(mp3)-01.mp3
任务243:模拟面试(mp3)-02.mp3
任务244: HMM中的参数
任务245: Complete vs Incomplete Case
任务246: Complete Case
任务247: Incomplete Case
任务248: EM算法回顾
任务249: F B算法回顾
任务250: 估计PI
任务251: 估计B
任务252: 估计A
任务253: 公司实际项目串讲-01
任务254: 公司实际项目串讲-02
任务255: 公司实际项目串讲-03
任务256: 有向图与无向图模型
任务257: 生成模型与判别模型
任务258: Log-Linear Model
任务259: Log-Linear Model与多元逻辑回归
任务260: CRF介绍
任务261: Inference问题
任务262: 参数估计
任务263: wordvector词向量
任务264: Global Generation of Distributed Representation
任务265: How to Learn Word2Vec-Intuition
任务266: Skip-Gram Model
任务267: 语料库
任务268: Word2Vec代码
任务269: 训练SkipGram问题
任务270: SkipGram另一种目标函数构建
任务271: SkipGram的negative sampling
任务272: 评估词向量
任务273: 词向量在推荐系统中的应用
任务274: 梯度提升树
任务275: 答疑
任务276: Word2vec
任务277: Learning with Subword
任务278: When subword is needed
任务279: Learn Embedding from Language Model
任务280: What are potential solutions
任务281: Elmo at Glance
任务282: Category of Word Representation
任务283: 神经网络介绍
任务284: 激活函数
任务285:MLP
任务286:多层神经网络
任务287:Universal Approximation Theorem
任务288:Biological Inspiration
任务289:回顾神经网络
任务290: 神经网络的损失函数
任务291: BP算法的核心流程
任务292: 对输出层的梯度计算
任务293: 对隐含层的梯度计算
任务294:对参数的梯度计算
任务295: 对BP算法的总结
任务296: gradient checking
任务297: 深度学习与非凸函数
任务298: 深度学习中的Plateau
任务299: SGD的收敛条件
任务300: Early Stopping
任务301: 为什么需要递归神经网络?
任务302: 递归神经网络介绍
任务303: 语言模型
任务304: RNN的深度
任务305: 梯度爆炸和梯度消失
任务306: Gradient Clipping
任务307: LSTM的介绍
任务308: LSTM的应用
任务309: Bi-Directional LSTM
任务310: Gated Recurrent Unit
任务311: 问答系统讲解01
任务312: 问答系统讲解02
任务313: Representation Learning
任务314: What makes good representation-01
任务315: What makes good representation-02
任务316: What makes good representation-03
任务317: Why Deep
任务318: Why Deep Learning Hard to Train
任务319: Ways to Solve Training
任务320: Dropout 介绍
任务321: 为什么Dropout防止过拟合现象
任务322: 机器翻译
任务323: Multimodal Learning
任务324: Seq2Seq模型
任务325: Seq2Seq训练介绍
任务326: Inference Decoding
任务327: Exhaustic Search
任务328: Beam Search
任务329: 回顾Multimodal Learning
任务330: Attention注意力机制介绍
任务331: 看图说话介绍
任务332: 图像识别的注意力机制
任务333: 基于GAN及强化学习的文本生成-01
任务334: 基于GAN及强化学习的文本生成-02
任务335: 回顾Seq2Seq模型
任务336: Seq2Seq的Attention
任务337: Self-Attention1
任务338: Self-Attention2
任务339: 深度文本匹配-01
任务340: 深度文本匹配-02
任务341: 回顾Attention
任务342: RNN LSTM-based models
任务343: Transformer的结构
任务344: Each Encoder Block
任务345: Self-Attention
任务346: Add Normalize
任务347: BERT概念
任务348: 回顾Language model
任务349: masked Language model
任务350: masked Language model存在的问题
任务351:LSTM
任务352: BERT训练过程
任务353:PGM领域
任务354: 主题模型
任务355: 回顾不同模型的范畴Model Estimation
任务356: 预测的过程
任务357: GD,SGD,Adagrad算法
任务358: 回顾LDA
任务359: 举例说明生成的过程
任务360: 从官方的角度讲解生成的过程
任务361: α到θi的生成
任务362: 举例说明生成文章
任务363: gibbs sampler
任务364: collapsed gibbs sampling-01
任务365: collapsed gibbs sampling-02
任务366: collapsed gibbs sampling-03
任务367: collapsed gibbs sampling-04
任务368: collapsed gibbs sampling-05
任务369: 推导过程01
任务370: 推导过程02
任务371: 推导过程03
任务372: Gibbs采样01
任务373: Gibbs采样02
任务374: Web-Scale Information Extraction in KnowItAll-01
任务375: Web-Scale Information Extraction in KnowItAll-02
任务376: 核函数
任务377: 直播-01
任务378: 直播-02
任务379: 直播-03
任务380: 直播-04
任务381: 直播-05
任务382: 直播-06
任务383: 直播-07
任务384: 直播-01
任务385:直播-02
任务386:直播-03
任务387:直播-04
任务388:直播-05
任务389:直播-06
任务390: 利用CRF模型做命名实体识别-01
任务391: 利用CRF模型做命名实体识别-02
任务392: 基于语料库训练Glove词向量模型-01
任务393: 基于语料库训练Glove词向量模型-02
任务394: GMM-01
任务395: GMM-02
任务396: GMM-03
任务397: XLNet-Bert Autoregressive LM
任务398: 改进思路
任务399: Bert 的目标函数
任务400: permutation
任务401:pytorch实现skip-gram
任务402: Airbnb(KDD 2018 best Paper)-01
任务403: Airbnb(KDD 2018 best Paper)-02
任务404:直播-01
任务405:直播-02
任务406:直播-03
任务407:直播-04
|
温馨提示:
1、本站所有内容均为互联网收集或网友分享或网络购买,本站不破解、不翻录任何视频!
2、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除并致以最深的歉意!
3、本站资源仅供本站会员学习参考,不得传播及用于其他用途,学习完后请在24小时内自行删除.
4、本站资源质量虽均经精心审查,但也难保万无一失,若发现资源有问题影响学习请一定及时点此进行问题反馈,我们会第一时间改正!
5、若发现链接失效了请联系管理员,管理员会在2小时内修复
6、如果有任何疑问,请加客服QQ:1300822626 2小时内回复你!
|