301-350

在线播放

课程目录

任务301: 为什么需要递归神经网络?

任务302: 递归神经网络介绍

任务303: 语言模型

任务304: RNN的深度

任务305: 梯度爆炸和梯度消失

任务306: Gradient Clipping

任务307: LSTM的介绍

任务308: LSTM的应用

任务309: Bi Directional LSTM

任务310: Gated Recurrent Unit

任务311: 问答系统讲解01

任务312: 问答系统讲解02

任务313: Representation Learning

任务314: What makes good representation 01

任务315: What makes good representation 02

任务316: What makes good representation 03

任务317: Why Deep

任务318: Why Deep Learning Hard to Train

任务319: Ways to Solve Training

任务320: Dropout 介绍

任务321: 为什么Dropout防止过拟合现象

任务322: 机器翻译

任务323: Multimodal Learning

任务324: Seq2Seq模型

任务325: Seq2Seq训练介绍

任务326: Inference Decoding

任务327: Exhaustic Search

任务328: Beam Search

任务329: 回顾Multimodal Learning

任务330: Attention注意力机制介绍

任务331: 看图说话介绍

任务332: 图像识别的注意力机制

任务333: 基于GAN及强化学习的文本生成 01

任务334: 基于GAN及强化学习的文本生成 02

任务335: 回顾Seq2Seq模型

任务336: Seq2Seq的Attention

任务337: Self Attention1

任务338: Self Attention2

任务339: 深度文本匹配 01

任务340: 深度文本匹配 02

任务341: 回顾Attention

任务342: RNN LSTM based models

任务343: Transformer的结构

任务344: Each Encoder Block

任务345: Self Attention

任务346: Add Normalize

任务347: BERT概念

任务348: 回顾Language model

任务349: masked Language model

任务350: masked Language model存在的问题

最后更新于