自然语言处理在线课程


简介:张岳老师是西湖大学工学院文本智能实验室PI(Principal Investigator,特聘研究员),是国内外知名的NLP(Natural Language Processing,自然语言处理)学者。本系列视频是张岳老师编写的《Natural Language Processing: A Machine Learning Perspective (机器学习视角下的自然语言处理)》一书的对应课程。

视频链接:https://space.bilibili.com/639900532/channel/collectiondetail?sid=84480&ctype=0

序号

章节

内容

时间

1

课程先导-1

课程简介

07:49

2

课程先导-2

课程大纲

15:29

3

1-1

自然语言处理及其发展历程简介

07:31

4

1-2

基础NLP任务介绍——句法分析任务

12:08

5

1-3

基础NLP任务介绍——语义分析任务

14:16

6

1-4

信息抽取任务介绍

21:06

7

1-5

文本生成任务及其他任务介绍

12:31

8

1-6

机器学习视角下的自然语言处理

11:39

9

2-1

最大似然估算和词概率模型

15:51

10

2-2

概率模型理论总结

10:20

11

2-3

语言模型——一元语言模型

12:10

12

2-4

语言模型——二元语言模型

11:15

13

2-5

语言模型——三元语言模型和生成模型

17:16

14

2-5.1

Knessay-Ney Smoothing

10:23

15

2-5.2

Good-Turing Smoothing

15:08

16

2-6

朴素贝叶斯文本分类(Naïve Bayes text classification

18:14

17

2-6.1

贝叶斯公式推导

06:12

18

2-7

特征向量和如何将文本文档映射到向量空间

12:25

19

3-1

聚类(Clustering

11:57

20

3-2

文本分类 — 支持向量机(Support Vector MachineSVM

16:40

21

3-3

文本分类 —感知机(Perceptron

12:17

22

3-4

多分类问题

11:42

23

3-5

多分类SVM和感知机

11:17

24

3-6

判别式模型和特征

11:46

25

3-6.1

判别、生成与线性模型

10:02

26

3-7

可分性、泛化性以及线性不可分问题

17:23

27

4-1

对数线性模型(Log linear model

11:13

28

4-2

对数线性模型训练

20:31

29

4-3

多分类对数线性模型训练

11:22

30

4-4

对数线性模型小结

08:46

31

4-5

利用SGDSVM训练

09:28

32

4-6

SVM与感知机模型

09:16

33

4-7

判别式分类模型总结

15:50

34

4-8

多模型的比较和融合

14:27

35

4-9

多模型堆叠

09:44

36

5-1

信息论

13:21

37

5-2

最大熵模型

16:31

38

5-3

KL散度,交叉熵与困惑度

19:12

39

5-4

互信息(Mutual information

11:28

40

5-5

点互信息(Pointwise mutual informationPMI

11:42

41

5-6

词向量表示

12:21

42

6-1

隐变量(Hidden variables

19:56

43

6-2

期望最大算法(Expectation Maximization, EM-

07:14

44

6-3

期望最大算法(Expectation Maximization, EM-

10:56

45

6-4

EM算法的应用-无监督的朴素贝叶斯

13:32

46

6-5

EM算法的应用-IBM Model 1

22:40

47

6-6

EM算法的应用-概率潜在语义分析

20:24

48

6-7

EM算法的推导

20:22

49

7-1

序列标注

13:54

50

7-2

隐马尔可夫模型

13:47

51

7-3

隐马尔可夫模型的解码

28:51

52

7-4

计算边缘概率

22:10

53

7-5

无监督的HMM

32:40

54

7-6

Precision, Recall F1-score

16:04

55

8-1

判别式序列标

07:13

56

8-2

局部的判别式序列标注模型

18:45

57

8-3

最大熵马尔可夫模型的解码

12:34

58

8-4

标签偏置问题

11:03

59

8-5

条件随机场(Conditional Random FieldCRF

15:07

60

8-6

CRF解码问题

13:04

61

8-7

CRF对边缘概率的计算

19:36

62

8-8

CRF的训练

26:27

63

8-9

用于结构预测问题的感知机模型

18:26

64

8-10

用于结构预测问题的SVM模型

24:33

65

9-1

序列切分问题

13:17

66

9-2

序列切分问题的序列标注方法

32:26

67

9-3

对序列切分任务直接建模

21:54

68

9-4

序列切分中的解码问题

23:23

69

9-5

半马尔科夫条件随机场

22:55

70

9-6

半马尔科夫条件随机场的训练

17:41

71

9-7

最大边缘模型(Large Margin Models

09:16

72

9-8

感知机模型和柱搜索(beam search

17:18

73

9-9

柱搜索和感知机模型的训练

12:39

74

10-1

树状结构的预测问题

16:47

75

10-2

概率上下文无关文法(Probabilistic context free grammar

14:19

76

10-3

CKY解码

26:18

77

10-4

成分句法分析器的评估

12:51

78

10-5

计算PCFG的边缘概率

25:24

79

10-6

词汇化的(LexicalizedPCFG模型

16:41

80

10-7

用于成分句法分析的判别式线性模型

11:57

81

10-8

训练用于成分句法分析的判别式线性模型

15:37

82

10-9

重排序(Re-ranking

19:44

83

10-10

结构预测问题总结以及基于图的方法

04:49

84

11-1

基于转移(Transition-based)的结构预测问题

17:24

85

11-2

局部贪心算法(Greedy local method

22:54

86

11-3

基于转移的全局建模方法

16:32

87

11-4

基于转移的成分句法分析

17:25

88

11-5

基于转移的依存句法分析(Arc-Standard

13:52

89

11-6

基于转移的依存句法分析(Arc-Eager

06:58

90

11-7

非投射的依存句法分析(Non-projective

06:19

91

11-8

基于转移的联合模型

09:48

92

11-9

基于转移的联合模型(分词、词性标注和依存句法分析)

11:51

93

12-1

贝叶斯网络(Bayesian Network

20:59

94

12-2

贝叶斯网络的训练和最大似然估算

17:19

95

12-3

最大后验的训练方式(Maximum a Posteriori

15:57

96

12-4

共轭先验(Conjugate Priors

13:40

97

12-5

贝叶斯估算(Bayesian Estimation

10:56

98

12-6

贝叶斯一元语言模型(Bayesian Unigram LM

21:52

99

12-7

模型推断(Inference

23:41

100

12-8

LDA主题模型

39:41

101

12-9

贝叶斯IBM Model 1

14:35

102

13-1

深度学习介绍及多层感知机模型(MLP

14:16

103

13-2

使用多层感知机(MLP)进行文本分类

19:09

104

13-3

多层感知机(MLP)的训练

12:59

105

13-4

MLP的训练—反向传播(Back-propagation)和推导

25:41

106

13-5

基于神经网络的文本分类器

12:41

107

13-6

序列编码 Sequence Encoding)— 池化和卷积

15:37

108

13-7

神经网络的输出层和模型训练

08:03

109

13-8

如何更好地训练神经网络

13:01

110

13-9

改进SGD来更好地训练神经网络

09:51

111

14-1

表示学习(Representation Learning

15:31

112

14-2

循环神经网络(Recurrent Neural Network, RNN

14:19

113

14-3

长短期记忆网络(Long-Short Term MemoryLSTM

15:32

114

14-4

LSTM 的扩展、简化和堆叠,和注意力机制

23:18

115

14-5

QKV Attention 和自注意力网络

16:37

116

14-6

树状结构的表示(Representing Trees)及树状LSTM

26:16

117

14-7

图神经网络(Graph Neural Networks, GNN

23:46

118

14-8

神经网络隐藏层表示的分析

07:13

119

14-9

神经网络的训练技巧

16:30

120

15-1

神经结构预测问题(Neural Structured Prediction

12:03

121

15-2

神经序列标注(Neural Sequence Labelling

12:18

122

15-3

神经依存句法分析(Neural Dependency Parsing

17:14

123

15-4

神经成分句法分析(Neural Constituency Parsing

12:58

124

15-5

局部的基于转移的模型和模型1

12:04

125

15-5

局部的基于转移的模型2和模型3

17:02

126

15-6

全局的结构模型(Global Structured Models

35:28

127

15-7

全局模型与基于转移的神经网络模型的结合

12:36

128

16-1

如何处理两个文本和Seq2Seq模型

24:11

129

16-2

使用注意力机制的LSTM序列到序列模型

16:56

130

16-3

如何从源端拷贝文本

12:03

131

16-4

BPEByte-Pair Encoding)编码

15:28

132

16-5

Transformer

27:17

133

16-6

文本匹配(Text Matching

09:26

134

16-7

基于Attention的文本匹配模型

21:08

135

16-8

非对称的文本匹配

11:23

136

16-9

多步推理任务和记忆网络(Memory Network

18:21

137

17-1

迁移学习和预训练(Pretraining

10:52

138

17-2

Noise Contrastive Estimation

23:53

139

17-3

从结构上优化预训练语言模型

06:22

140

17-4

预训练词嵌入表示

09:44

141

17-5

GloVe词嵌入

06:55

142

17-6

词嵌入的评估

12:14

143

17-7

词嵌入模型中的OOV问题

12:07

144

17-8

ELMoGPTBERTBART

21:50

145

17-9

迁移学习(Transfer Learning

15:30

146

18-1

隐变量与神经网络的关系

08:28

147

18-2

离散隐变量神经网络模型-具有隐变量的词袋模型

18:01

148

18-3

离散隐变量神经网络模型-具有隐变量的RNN模型

09:29

149

18-4

引入结构化的隐变量-序列标注

20:15

150

18-5

引入结构化的隐变量-句子切分

09:58

151

18-6

引入结构化的隐变量-成分句法

09:21

152

18-7

引入连续的隐变量

22:47

153

18-8

变分自编码器

30:15

154

18-9

变分自编码器—Gumbel-max方法

11:20

155

18-10

VAE的应用主题模型

15:28

156

18-11

VAE的应用语言建模

27:58


下一条:孟上九校长莅临指导

关闭