序号 |
章节 |
内容 |
时间 |
1 |
课程先导-1 |
课程简介 |
07:49 |
2 |
课程先导-2 |
课程大纲 |
15:29 |
3 |
1-1 |
自然语言处理及其发展历程简介 |
07:31 |
4 |
1-2 |
基础NLP任务介绍——句法分析任务 |
12:08 |
5 |
1-3 |
基础NLP任务介绍——语义分析任务 |
14:16 |
6 |
1-4 |
信息抽取任务介绍 |
21:06 |
7 |
1-5 |
文本生成任务及其他任务介绍 |
12:31 |
8 |
1-6 |
机器学习视角下的自然语言处理 |
11:39 |
9 |
2-1 |
最大似然估算和词概率模型 |
15:51 |
10 |
2-2 |
概率模型理论总结 |
10:20 |
11 |
2-3 |
语言模型——一元语言模型 |
12:10 |
12 |
2-4 |
语言模型——二元语言模型 |
11:15 |
13 |
2-5 |
语言模型——三元语言模型和生成模型 |
17:16 |
14 |
2-5.1 |
Knessay-Ney Smoothing |
10:23 |
15 |
2-5.2 |
Good-Turing Smoothing |
15:08 |
16 |
2-6 |
朴素贝叶斯文本分类(Naïve Bayes text classification) |
18:14 |
17 |
2-6.1 |
贝叶斯公式推导 |
06:12 |
18 |
2-7 |
特征向量和如何将文本文档映射到向量空间 |
12:25 |
19 |
3-1 |
聚类(Clustering) |
11:57 |
20 |
3-2 |
文本分类 — 支持向量机(Support Vector Machine,SVM) |
16:40 |
21 |
3-3 |
文本分类 —感知机(Perceptron) |
12:17 |
22 |
3-4 |
多分类问题 |
11:42 |
23 |
3-5 |
多分类SVM和感知机 |
11:17 |
24 |
3-6 |
判别式模型和特征 |
11:46 |
25 |
3-6.1 |
判别、生成与线性模型 |
10:02 |
26 |
3-7 |
可分性、泛化性以及线性不可分问题 |
17:23 |
27 |
4-1 |
对数线性模型(Log linear model) |
11:13 |
28 |
4-2 |
对数线性模型训练 |
20:31 |
29 |
4-3 |
多分类对数线性模型训练 |
11:22 |
30 |
4-4 |
对数线性模型小结 |
08:46 |
31 |
4-5 |
利用SGD的SVM训练 |
09:28 |
32 |
4-6 |
SVM与感知机模型 |
09:16 |
33 |
4-7 |
判别式分类模型总结 |
15:50 |
34 |
4-8 |
多模型的比较和融合 |
14:27 |
35 |
4-9 |
多模型堆叠 |
09:44 |
36 |
5-1 |
信息论 |
13:21 |
37 |
5-2 |
最大熵模型 |
16:31 |
38 |
5-3 |
KL散度,交叉熵与困惑度 |
19:12 |
39 |
5-4 |
互信息(Mutual information) |
11:28 |
40 |
5-5 |
点互信息(Pointwise mutual information,PMI) |
11:42 |
41 |
5-6 |
词向量表示 |
12:21 |
42 |
6-1 |
隐变量(Hidden variables) |
19:56 |
43 |
6-2 |
期望最大算法(Expectation Maximization, EM)-上 |
07:14 |
44 |
6-3 |
期望最大算法(Expectation Maximization, EM)-下 |
10:56 |
45 |
6-4 |
EM算法的应用-无监督的朴素贝叶斯 |
13:32 |
46 |
6-5 |
EM算法的应用-IBM Model 1 |
22:40 |
47 |
6-6 |
EM算法的应用-概率潜在语义分析 |
20:24 |
48 |
6-7 |
EM算法的推导 |
20:22 |
49 |
7-1 |
序列标注 |
13:54 |
50 |
7-2 |
隐马尔可夫模型 |
13:47 |
51 |
7-3 |
隐马尔可夫模型的解码 |
28:51 |
52 |
7-4 |
计算边缘概率 |
22:10 |
53 |
7-5 |
无监督的HMM |
32:40 |
54 |
7-6 |
Precision, Recall 和 F1-score |
16:04 |
55 |
8-1 |
判别式序列标 |
07:13 |
56 |
8-2 |
局部的判别式序列标注模型 |
18:45 |
57 |
8-3 |
最大熵马尔可夫模型的解码 |
12:34 |
58 |
8-4 |
标签偏置问题 |
11:03 |
59 |
8-5 |
条件随机场(Conditional Random Field,CRF) |
15:07 |
60 |
8-6 |
CRF解码问题 |
13:04 |
61 |
8-7 |
CRF对边缘概率的计算 |
19:36 |
62 |
8-8 |
CRF的训练 |
26:27 |
63 |
8-9 |
用于结构预测问题的感知机模型 |
18:26 |
64 |
8-10 |
用于结构预测问题的SVM模型 |
24:33 |
65 |
9-1 |
序列切分问题 |
13:17 |
66 |
9-2 |
序列切分问题的序列标注方法 |
32:26 |
67 |
9-3 |
对序列切分任务直接建模 |
21:54 |
68 |
9-4 |
序列切分中的解码问题 |
23:23 |
69 |
9-5 |
半马尔科夫条件随机场 |
22:55 |
70 |
9-6 |
半马尔科夫条件随机场的训练 |
17:41 |
71 |
9-7 |
最大边缘模型(Large Margin Models) |
09:16 |
72 |
9-8 |
感知机模型和柱搜索(beam search) |
17:18 |
73 |
9-9 |
柱搜索和感知机模型的训练 |
12:39 |
74 |
10-1 |
树状结构的预测问题 |
16:47 |
75 |
10-2 |
概率上下文无关文法(Probabilistic context free grammar) |
14:19 |
76 |
10-3 |
CKY解码 |
26:18 |
77 |
10-4 |
成分句法分析器的评估 |
12:51 |
78 |
10-5 |
计算PCFG的边缘概率 |
25:24 |
79 |
10-6 |
词汇化的(Lexicalized)PCFG模型 |
16:41 |
80 |
10-7 |
用于成分句法分析的判别式线性模型 |
11:57 |
81 |
10-8 |
训练用于成分句法分析的判别式线性模型 |
15:37 |
82 |
10-9 |
重排序(Re-ranking) |
19:44 |
83 |
10-10 |
结构预测问题总结以及基于图的方法 |
04:49 |
84 |
11-1 |
基于转移(Transition-based)的结构预测问题 |
17:24 |
85 |
11-2 |
局部贪心算法(Greedy local method) |
22:54 |
86 |
11-3 |
基于转移的全局建模方法 |
16:32 |
87 |
11-4 |
基于转移的成分句法分析 |
17:25 |
88 |
11-5 |
基于转移的依存句法分析(Arc-Standard) |
13:52 |
89 |
11-6 |
基于转移的依存句法分析(Arc-Eager) |
06:58 |
90 |
11-7 |
非投射的依存句法分析(Non-projective) |
06:19 |
91 |
11-8 |
基于转移的联合模型 |
09:48 |
92 |
11-9 |
基于转移的联合模型(分词、词性标注和依存句法分析) |
11:51 |
93 |
12-1 |
贝叶斯网络(Bayesian Network) |
20:59 |
94 |
12-2 |
贝叶斯网络的训练和最大似然估算 |
17:19 |
95 |
12-3 |
最大后验的训练方式(Maximum a Posteriori) |
15:57 |
96 |
12-4 |
共轭先验(Conjugate Priors) |
13:40 |
97 |
12-5 |
贝叶斯估算(Bayesian Estimation) |
10:56 |
98 |
12-6 |
贝叶斯一元语言模型(Bayesian Unigram LM) |
21:52 |
99 |
12-7 |
模型推断(Inference) |
23:41 |
100 |
12-8 |
LDA主题模型 |
39:41 |
101 |
12-9 |
贝叶斯IBM Model 1 |
14:35 |
102 |
13-1 |
深度学习介绍及多层感知机模型(MLP) |
14:16 |
103 |
13-2 |
使用多层感知机(MLP)进行文本分类 |
19:09 |
104 |
13-3 |
多层感知机(MLP)的训练 |
12:59 |
105 |
13-4 |
MLP的训练—反向传播(Back-propagation)和推导 |
25:41 |
106 |
13-5 |
基于神经网络的文本分类器 |
12:41 |
107 |
13-6 |
序列编码 (Sequence Encoding)— 池化和卷积 |
15:37 |
108 |
13-7 |
神经网络的输出层和模型训练 |
08:03 |
109 |
13-8 |
如何更好地训练神经网络 |
13:01 |
110 |
13-9 |
改进SGD来更好地训练神经网络 |
09:51 |
111 |
14-1 |
表示学习(Representation Learning) |
15:31 |
112 |
14-2 |
循环神经网络(Recurrent Neural Network, RNN) |
14:19 |
113 |
14-3 |
长短期记忆网络(Long-Short Term Memory,LSTM) |
15:32 |
114 |
14-4 |
LSTM 的扩展、简化和堆叠,和注意力机制 |
23:18 |
115 |
14-5 |
QKV Attention 和自注意力网络 |
16:37 |
116 |
14-6 |
树状结构的表示(Representing Trees)及树状LSTM |
26:16 |
117 |
14-7 |
图神经网络(Graph Neural Networks, GNN) |
23:46 |
118 |
14-8 |
神经网络隐藏层表示的分析 |
07:13 |
119 |
14-9 |
神经网络的训练技巧 |
16:30 |
120 |
15-1 |
神经结构预测问题(Neural Structured Prediction) |
12:03 |
121 |
15-2 |
神经序列标注(Neural Sequence Labelling) |
12:18 |
122 |
15-3 |
神经依存句法分析(Neural Dependency Parsing) |
17:14 |
123 |
15-4 |
神经成分句法分析(Neural Constituency Parsing) |
12:58 |
124 |
15-5 |
局部的基于转移的模型和模型1 |
12:04 |
125 |
15-5 |
局部的基于转移的模型2和模型3 |
17:02 |
126 |
15-6 |
全局的结构模型(Global Structured Models) |
35:28 |
127 |
15-7 |
全局模型与基于转移的神经网络模型的结合 |
12:36 |
128 |
16-1 |
如何处理两个文本和Seq2Seq模型 |
24:11 |
129 |
16-2 |
使用注意力机制的LSTM序列到序列模型 |
16:56 |
130 |
16-3 |
如何从源端拷贝文本 |
12:03 |
131 |
16-4 |
BPE(Byte-Pair Encoding)编码 |
15:28 |
132 |
16-5 |
Transformer |
27:17 |
133 |
16-6 |
文本匹配(Text Matching) |
09:26 |
134 |
16-7 |
基于Attention的文本匹配模型 |
21:08 |
135 |
16-8 |
非对称的文本匹配 |
11:23 |
136 |
16-9 |
多步推理任务和记忆网络(Memory Network) |
18:21 |
137 |
17-1 |
迁移学习和预训练(Pretraining) |
10:52 |
138 |
17-2 |
Noise Contrastive Estimation |
23:53 |
139 |
17-3 |
从结构上优化预训练语言模型 |
06:22 |
140 |
17-4 |
预训练词嵌入表示 |
09:44 |
141 |
17-5 |
GloVe词嵌入 |
06:55 |
142 |
17-6 |
词嵌入的评估 |
12:14 |
143 |
17-7 |
词嵌入模型中的OOV问题 |
12:07 |
144 |
17-8 |
ELMo,GPT,BERT和BART |
21:50 |
145 |
17-9 |
迁移学习(Transfer Learning) |
15:30 |
146 |
18-1 |
隐变量与神经网络的关系 |
08:28 |
147 |
18-2 |
离散隐变量神经网络模型-具有隐变量的词袋模型 |
18:01 |
148 |
18-3 |
离散隐变量神经网络模型-具有隐变量的RNN模型 |
09:29 |
149 |
18-4 |
引入结构化的隐变量-序列标注 |
20:15 |
150 |
18-5 |
引入结构化的隐变量-句子切分 |
09:58 |
151 |
18-6 |
引入结构化的隐变量-成分句法 |
09:21 |
152 |
18-7 |
引入连续的隐变量 |
22:47 |
153 |
18-8 |
变分自编码器 |
30:15 |
154 |
18-9 |
变分自编码器—Gumbel-max方法 |
11:20 |
155 |
18-10 |
VAE的应用—主题模型 |
15:28 |
156 |
18-11 |
VAE的应用—语言建模 |
27:58 |