最近搜索
暂无搜索记录
热搜
JAVA
大数据
分布式
Python
人工智能
爬虫
WEB
JavaScript
认证
课时01
简单神经网络实现文本分类
44分7秒
课时02
简单RNN实现文本分类
26分38秒
课时03
双向循环神经网络实现文本分类
53分34秒
课时04
文本生成任务之数据预处理
21分40秒
课时05
文本生成任务之模型创建
19分31秒
课时06
文本生成任务之训练和预测
38分58秒
课时07
LSTM完成文本生成任务
1小时22分13秒
课时08
subword文本分类
48分13秒
课时09
seq2seq和attention基础理论
15分37秒
课时10
数据预处理与读取
25分32秒
课时11
数据id化和生成dataset
30分20秒
课时12
Encoder构建
12分28秒
课时13
attention构建
25分58秒
课时14
Decoder构建
20分56秒
课时15
损失函数与单步训练函数
20分34秒
课时16
模型训练
15分38秒
课时17
模型预测
17分8秒
课时18
attention可视化
3分52秒
课时19
样例分析和总结
17分49秒
课时20
Transformer模型总体架构
17分21秒
课时21
Encoder-Decoder架构与缩放点击注意力
14分11秒
课时22
多头注意力与位置编码
14分59秒
课时23
Add, Normalize, Decoding过程和总结
16分48秒
课时24
数据预处理与dataset生成
38分8秒
课时25
位置编码
16分6秒
课时26
mask构建
9分45秒
课时27
缩放点击注意力机制的实现
16分53秒
课时28
缩放点击注意力机制校验
18分47秒
课时29
多头注意力机制实现
34分45秒
课时30
feedforward层次实现
6分44秒
课时31
EncoderLayer实现
22分31秒
课时32
DecoderLayer实现
21分7秒
课时33
EncoderModel实现
19分53秒
课时34
DecoderModel实现
16分47秒
课时35
Transformer实现
15分35秒
课时36
自定义学习率策略
17分51秒
课时37
定义优化器和损失函数
11分53秒
课时38
Mask创建与使用
28分30秒
课时39
模型训练
59分27秒
课时40
模型预测实现
18分20秒
课时41
attention可视化
11分0秒
课时42
实例展示
9分51秒
课时43
项目总结
27分24秒