课程介绍
课程章节
章节1:循环神经网络 (8节)

课时01

简单神经网络实现文本分类

44分7秒

课时02

简单RNN实现文本分类

26分38秒

课时03

双向循环神经网络实现文本分类

53分34秒

课时04

文本生成任务之数据预处理

21分40秒

课时05

文本生成任务之模型创建

19分31秒

课时06

文本生成任务之训练和预测

38分58秒

课时07

LSTM完成文本生成任务

1小时22分13秒

课时08

subword文本分类

更新时间:2024-03-12

48分13秒

章节2: 数据预处理 (3节)

课时09

seq2seq和attention基础理论

更新时间:2024-02-27

15分37秒

课时10

数据预处理与读取

更新时间:2024-02-27

25分32秒

课时11

数据id化和生成dataset

更新时间:2024-02-28

30分20秒

章节3: 建模 (3节)

课时12

Encoder构建

更新时间:2024-02-28

12分28秒

课时13

attention构建

更新时间:2024-02-29

25分58秒

课时14

Decoder构建

更新时间:2024-02-29

20分56秒

章节4: 训练 (5节)

课时15

损失函数与单步训练函数

更新时间:2024-03-01

20分34秒

课时16

模型训练

更新时间:2024-03-05

15分38秒

课时17

模型预测

更新时间:2024-03-05

17分8秒

课时18

attention可视化

更新时间:2024-03-05

3分52秒

课时19

样例分析和总结

更新时间:2024-03-05

17分49秒

章节5: Transformer (24节)

课时20

Transformer模型总体架构

更新时间:2024-03-06

17分21秒

课时21

Encoder-Decoder架构与缩放点击注意力

更新时间:2024-03-23

14分11秒

课时22

多头注意力与位置编码

更新时间:2024-03-23

14分59秒

课时23

Add, Normalize, Decoding过程和总结

更新时间:2024-03-26

16分48秒

课时24

数据预处理与dataset生成

更新时间:2024-03-26

38分8秒

课时25

位置编码

更新时间:2024-03-26

16分6秒

课时26

mask构建

更新时间:2024-03-26

9分45秒

课时27

缩放点击注意力机制的实现

更新时间:2024-03-28

16分53秒

课时28

缩放点击注意力机制校验

更新时间:2024-03-28

18分47秒

课时29

多头注意力机制实现

更新时间:2024-03-29

34分45秒

课时30

feedforward层次实现

更新时间:2024-03-29

6分44秒

课时31

EncoderLayer实现

更新时间:2024-03-30

22分31秒

课时32

DecoderLayer实现

更新时间:2024-03-30

21分7秒

课时33

EncoderModel实现

更新时间:2024-04-02

19分53秒

课时34

DecoderModel实现

更新时间:2024-04-02

16分47秒

课时35

Transformer实现

更新时间:2024-04-03

15分35秒

课时36

自定义学习率策略

更新时间:2024-04-08

17分51秒

课时37

定义优化器和损失函数

更新时间:2024-04-08

11分53秒

课时38

Mask创建与使用

更新时间:2024-04-09

28分30秒

课时39

模型训练

更新时间:2024-04-10

59分27秒

课时40

模型预测实现

更新时间:2024-04-11

18分20秒

课时41

attention可视化

更新时间:2024-04-11

11分0秒

课时42

实例展示

更新时间:2024-04-12

9分51秒

课时43

项目总结

更新时间:2024-04-12

27分24秒

您没有该体系课权限,需要开通权限请点击联系老师。
联系老师
个问题,0回答
提问
暂无提问,赶紧去提问吧~