课程介绍
课程章节
章节1:循环神经网络 (8节)

课时01

简单神经网络实现文本分类

44分7秒

课时02

简单RNN实现文本分类

26分38秒

课时03

双向循环神经网络实现文本分类

53分34秒

课时04

文本生成任务之数据预处理

21分40秒

课时05

文本生成任务之模型创建

19分31秒

课时06

文本生成任务之训练和预测

38分58秒

课时07

LSTM完成文本生成任务

1小时22分13秒

课时08

subword文本分类

48分13秒

章节2: 数据预处理 (3节)

课时09

seq2seq和attention基础理论

15分37秒

课时10

数据预处理与读取

25分32秒

课时11

数据id化和生成dataset

30分20秒

章节3: 建模 (3节)

课时12

Encoder构建

12分28秒

课时13

attention构建

25分58秒

课时14

Decoder构建

20分56秒

章节4: 训练 (5节)

课时15

损失函数与单步训练函数

20分34秒

课时16

模型训练

15分38秒

课时17

模型预测

17分8秒

课时18

attention可视化

3分52秒

课时19

样例分析和总结

17分49秒

章节5: Transformer (24节)

课时20

Transformer模型总体架构

17分21秒

课时21

Encoder-Decoder架构与缩放点击注意力

14分11秒

课时22

多头注意力与位置编码

14分59秒

课时23

Add, Normalize, Decoding过程和总结

16分48秒

课时24

数据预处理与dataset生成

38分8秒

课时25

位置编码

16分6秒

课时26

mask构建

9分45秒

课时27

缩放点击注意力机制的实现

16分53秒

课时28

缩放点击注意力机制校验

18分47秒

课时29

多头注意力机制实现

34分45秒

课时30

feedforward层次实现

6分44秒

课时31

EncoderLayer实现

22分31秒

课时32

DecoderLayer实现

21分7秒

课时33

EncoderModel实现

19分53秒

课时34

DecoderModel实现

16分47秒

课时35

Transformer实现

15分35秒

课时36

自定义学习率策略

17分51秒

课时37

定义优化器和损失函数

11分53秒

课时38

Mask创建与使用

28分30秒

课时39

模型训练

59分27秒

课时40

模型预测实现

18分20秒

课时41

attention可视化

11分0秒

课时42

实例展示

9分51秒

课时43

项目总结

27分24秒

您没有该体系课权限,需要开通权限请点击联系老师。
联系老师
个问题,0回答
提问
暂无提问,赶紧去提问吧~