小象学院《自然语言处理》第二期
内容简介
英国布里斯托(Bristo)大学
硕士、博士。美国加州大学伯克
利分校( UC Berkeley)博士后、
牛津(Oxford)大学与卡内基梅隆
大学(CMU)访问学者。目前主
要研究方向为数据挖掘、跨媒体
检索与自然语言理解。出版英文
PS:注意课程有点老,不建议作为主课看。
资源目录
——/计算机教程/09-其他/213-小象学院《自然语言处理》第二期/
01-第1章:自然语言与数学之美
1.1 课程简介及推荐书目.flv 9.91M
1.10 凸集合和凸函数.flv 6.51M
1.2 NLP的研究领域及应用.flv 12.59M
1.3 自然语言的6个重要术语.flv 6.07M
1.4 语言学的发展史 1.flv 27.07M
1.5 语言学的发展史 2.flv 19.80M
1.6 语言学的发展史 3.flv 24.63M
1.7 函数.flv 8.97M
1.8 向量与向量的模.flv 11.48M
1.9 矩阵和矩阵运算.flv 11.88M
02-第2章:基于机器学习方法的自然语言处理
2.1 主观概率和客观概率.flv 8.11M
2.10 辛普森悖论和贝叶斯概率解题实例.flv 21.80M
2.2 概率模型与条件概率.flv 12.63M
2.3 贝叶斯原理与推理.flv 18.30M
2.4 随机变量:二项式概率.flv 15.09M
2.5 随机变量:期望与方差.flv 10.85M
2.6 随机变量:联合概率.flv 3.33M
2.7 伯努利分布和二项式分布.flv 12.97M
2.8 多项式分布、伽玛分布和Beta分布.flv 9.12M
2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv 11.25M
03-第三章:1、2章答疑
第一周答疑.flv 85.58M
04-第四章:自然语言
3.1 语言的进化:来自自然选择的社会协作.flv 20.40M
3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M
3.3 语言与智能:信息熵.flv 15.22M
3.4 语言与智能:交叉熵的定义.flv 21.51M
3.5 语义的进化.flv 20.31M
3.6 语言模型:语言概率.flv 7.07M
3.7 词袋模型.flv 10.35M
3.8 二元语言模型:CR情感分析.flv 27.54M
05-第5章:语言模型和中文分词
4.1 三元语言模型.flv 18.06M
4.10 N-Gram模型.flv 3.34M
4.11 Optimal Path 最优路径模型.flv 1.56M
4.12 中文分词工具:Jieba.flv 8.40M
4.2 语言模型评价:交叉熵.flv 8.43M
4.3 语言模型评价:Perplexity(困惑度).flv 9.47M
4.4 语言评价模型:Interpolation(插值法).flv 5.13M
4.5 概率模型:垃圾邮件分类.flv 17.99M
4.6 概率模型:拼写检查.flv 29.38M
4.7 语音模型和机器翻译模型.flv 5.43M
4.8 中文构词法.flv 13.87M
4.9 最大化匹配.flv 3.25M
06-第6章:第二周答疑
第二周答疑.flv 140.36M
07-第7章:语言技术-词表达和Word2Vec
5.1 词表达.flv 6.30M
5.10 Word2Vec-Part 3.flv 23.82M
5.2 语义相似度.flv 12.01M
5.3 TF-IDF权重处理.flv 5.17M
5.4 One-Hot表达.flv 5.28M
5.5 神经网络基础.flv 15.30M
5.6 神经网络:反向传播 1.flv 9.05M
5.7 神经网络:反向传播 2.flv 19.26M
5.8 Word2Vec-Part 1.flv 21.52M
5.9 Word2Vec-Part 2.flv 25.45M
08-第8章:语言技术-词性
6.1 什么是词性标注(POS Tagging).flv 7.61M
6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M
6.2 词性标注的方法.flv 7.21M
6.3 词性的标注类别和标注集.flv 9.38M
6.4 规则标注和N-Gram方法.flv 6.02M
6.5 从混合模型到HMM.flv 14.31M
6.6 混合模型详解1:EM模型.flv 32.65M
6.7 混合模型详解2:EM模型.flv 22.88M
6.8 混合模型详解3:高斯混合模型.flv 16.78M
6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M
09-第9章:第三周答疑
第三周答疑.flv 28.43M
10-第10章:语言技术-概率图模型
7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M
7.2 概率图模型:分层图模型.flv 4.04M
7.3 概率图模型:隐马尔科夫链.flv 3.68M
7.4 隐马尔可夫模型的推导 1.flv 25.84M
7.5 隐马尔科夫模型的推导 2.flv 25.88M
7.6 隐马尔科夫模型的推导 3.flv 33.31M
7.7 隐马尔科夫模型的推导 4.flv 29.12M
7.8 PLSA主题模型1.flv 11.97M
7.9 PLSA主题模型 2.flv 11.25M
11-第11章:语言技术-文本与LDA主题模型
8.1 向量表达和潜在语义索引(LSI).flv 6.56M
8.10 实验报告:文本语义相似度.flv 5.83M
8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M
8.12 实验总结.flv 5.26M
8.2 LDA和狄利克雷分布.flv 17.13M
8.3 LDA主题模型.flv 24.67M
8.4 主题模型的深化与对比.flv 18.30M
8.5 语义距离(Semantic Distance).flv 6.84M
8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M
8.7 实验报告:困惑度(Perplexity).flv 3.48M
8.8 实验报告:文本分类准确度.flv 8.13M
8.9 中英双语料库实验.flv 3.45M
12-第12章:第四周答疑
第四周答疑.flv 51.72M
13-第13章:语言技术-句法
9.1 上下文无关句法(CFG)-Part 1.flv 31.42M
9.2 上下文无关句法(CFG)-Part 2.flv 30.86M
9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M
9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M
9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M
14-第14章:机器翻译
10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M
10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M
10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M
10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M
10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M
10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M
15-第15章:第五周答疑
第五周答疑.flv 30.24M
16-第16章:卷积神经网络CNN
11.1 神经元.flv 5.54M
11.2 全连接网络及特性.flv 15.85M
11.3 Auto-Encode 自编码器.flv 6.02M
11.4 反向传播(BP).flv 33.44M
11.5 卷积神经网络(CNN)的理解.flv 7.40M
11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M
11.7 CNN的计算过程.flv 13.47M
11.8 CNN如何应用在自然语言处理中.flv 15.92M
17-第17章:循环神经网络RNN
12.1 循环神经网络的基本原理.flv 18.03M
12.2 Elman Network和Jordan Networ.flv 2.64M
12.3 LSTM的核心思想.flv 11.45M
12.4 LSTM的分步实现详解.flv 17.15M
12.5 Encoder-Decoder 框架.flv 15.26M
12.6 Seq2Seq 模型.flv 24.49M
12.7 注意力机制(Attention Mechanism).flv 17.27M
18-第18章:第六周答疑
第六周答疑.flv 23.31M
19-第19章:注意力机制
13.1 注意力机制产生的背景回顾.flv 20.67M
13.2 注意力模型的实现原理.flv 7.57M
13.3 注意力模型的应用领域.flv 8.75M
13.4 记忆网络(Memory Network)的组成.flv 18.61M
13.5 记忆网络的计算过程和实现方法.flv 22.62M
13.6 匹配函数(Match Function).flv 5.52M
13.7 注意力模型的延展1:Neural Programmer.flv 6.54M
13.8 注意力模型的延展2:神经图灵机.flv 27.65M
20-第20章:广义模型(Universal Transformer)
14.1 UT的典型结构:Stack of Encoder and Decoder.flv 7.16M
14.2 Self-Attention的计算.flv 17.08M
14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv 8.81M
14.4 位置编码(Positional Encoding).flv 4.51M
14.5 层泛化(Lay Normalization).flv 7.00M
14.6 Softmax Layer:交叉熵和损失函数的计算.flv 10.85M
14.7 ACT模型(Adaptive Computation Time).flv 25.35M
14.8 Universal Transformer 的完整实现流程.flv 9.90M
21-第21章:第七周答疑
第七周答疑.flv 17.61M
22-第22章:自然语言研究的未来方向
15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv 6.61M
15.2 语义关系计算与知识库.flv 17.11M
15.3 知识库推理学习:Neural Tensor Network.flv 21.51M
15.4 跨媒体信息搜索:CMIR.flv 13.73M
15.5 文本图卷积网络(Text GCN).flv 39.91M
15.6 NLP未来的探索方向.flv 15.40M
资料
01第一课:自然语言与数学之美.pdf 2.48M
02第二课:基于机器学习方法的自然语言处理.pdf 3.54M
03第三课:自然语言.pdf 2.83M
03第三课资料 1.pdf 3.55M
03第三课资料 2.pdf 142.06kb
03第三课资料 3.pdf 362.29kb
04第四课:语言模型.pdf 1.05M
04第四课资料.pdf 1.01M
05第五课课件.pdf 2.77M
06第六课课件.pdf 1.06M
07第七课课件.pdf 1.61M
第7课 note.pdf 732.79kb
第六课 Note.pdf 1.26M
第十三课 课件.pdf 14.26M
第十一课:循环神经网络.pdf 6.19M