课程介绍
课程章节
章节1: 自然语言处理基础概念 (7节)

课时01

NLP介绍和NLP初期发展

56分33秒

课时02

序列数据研究

1小时9分25秒

课时03

文本预处理

55分27秒

课时04

NLTK分词的使用

46分17秒

课时05

jieba分词的使用

39分21秒

课时06

语言模型

46分7秒

课时07

序列数据采样

1小时4分4秒

章节2: 自然语言处理深度学习算法 (11节)

课时08

循环神经网络(RNN)

52分35秒

课时09

从零实现RNN之读取数据和初始化模型参数

46分17秒

课时10

从零实现RNN之构建RNN模型

27分28秒

课时11

从零实现RNN之预测代码

16分58秒

课时12

从零实现RNN之训练

52分9秒

课时13

pytorch实现RNN

35分41秒

课时14

RNN反向传播数学细节

31分40秒

课时15

长短期记忆网络(LSTM)

1小时3分32秒

课时16

门控循环单元(GRU)

24分19秒

课时17

深层循环神经网络

14分46秒

课时18

双向循环神经网络

14分7秒

章节3: 自然语言处理高级 (50节)

课时19

机器翻译之数据处理

46分6秒

课时20

编码器-解码器结构

1小时2分54秒

课时21

seq2seq之训练

1小时6分37秒

课时22

seq2seq之预测和评估

46分23秒

课时23

注意力机制(Attention)

1小时24分7秒

课时24

注意力分数函数

1小时7分5秒

课时25

使用注意力机制的Seq2Seq

1小时1分53秒

课时26

多头注意力

56分44秒

课时27

自注意力

44分2秒

课时28

Transformer结构

12分43秒

课时29

Transformer模块之FFN

18分53秒

课时30

Transformer模块之addnorm

25分49秒

课时31

Transformer模块之encoderblock

28分36秒

课时32

Transformer模块之decoder和训练预测

58分11秒

课时33

BERT结构

20分6秒

课时34

BERT实现

1小时7分27秒

课时35

BERT训练之数据预处理

26分6秒

课时36

BERT训练环节

10分50秒

课时37

BERT微调训练

12分9秒

课时38

神经网络语言模型

24分34秒

课时39

word2vec

14分7秒

课时40

word2vec推导

21分49秒

课时41

skip-gram的改进

8分37秒

课时42

word2vec之训练数据预处理

38分33秒

课时43

word2vec之训练代码详解

1小时25分49秒

课时44

word2vec应用

43分26秒

课时45

GloVe原理

43分36秒

课时46

GloVe使用

25分24秒

课时47

fastText原理

19分37秒

课时48

预训练词向量的使用

1小时9分24秒

课时49

ELMo模型

15分50秒

课时50

IMDB情感分析之数据预处理

42分0秒

课时51

IMDB情感分析项目模型搭建和训练预测

55分27秒

课时52

GPT系列模型

23分44秒

课时53

huggingface介绍和安装

14分7秒

课时54

huggingface之tokenizer

32分1秒

课时55

huggingface之datasets用法

31分12秒

课时56

huggingface实现中文文本分类任务

56分51秒

课时57

nlp实战任务之预测最后一个词

1小时22分20秒

课时58

nlp实战任务之预测中间词

1小时10分49秒

课时59

nlp实战任务之阅读理解

1小时32分34秒

课时60

nlp实战任务之文本摘要

1小时30分37秒

课时61

nlp实战任务之文本分类

50分8秒

课时62

nlp实战任务之命名实体识别

2小时1分3秒

课时63

nlp实战任务之翻译

1小时8分46秒

课时64

AI写诗之数据处理

26分55秒

课时65

AI写诗之创建数据集

12分16秒

课时66

AI写诗之创建模型

7分18秒

课时67

AI写诗之训练

23分43秒

课时68

AI写诗之预测

27分27秒

您没有该体系课权限,需要开通权限请点击联系老师。
联系老师
个问题,0回答
提问
暂无提问,赶紧去提问吧~