fastNLP.modules.encoder.variational_rnn module

undocumented Variational RNN 及相关模型的 fastNLP实现,相关论文参考: A Theoretically Grounded Application of Dropout in Recurrent Neural Networks (Yarin Gal and Zoubin Ghahramani, 2016)

class fastNLP.modules.encoder.variational_rnn.VarRNN(*args, **kwargs)[源代码]

基类:fastNLP.modules.encoder.variational_rnn.VarRNNBase

基类 fastNLP.modules.VarRNNBase

别名 fastNLP.modules.VarRNN fastNLP.modules.encoder.VarRNN

__init__(*args, **kwargs)[源代码]
参数
  • input_size – 输入 x 的特征维度

  • hidden_size – 隐状态 h 的特征维度

  • num_layers – rnn的层数. Default: 1

  • bias – 如果为 False, 模型将不会使用bias. Default: True

  • batch_first – 若为 True, 输入和输出 Tensor 形状为 (batch, seq, feature). Default: False

  • input_dropout – 对输入的dropout概率. Default: 0

  • hidden_dropout – 对每个隐状态的dropout概率. Default: 0

  • bidirectional – 若为 True, 使用双向的RNN. Default: False

training: bool
class fastNLP.modules.encoder.variational_rnn.VarLSTM(*args, **kwargs)[源代码]

基类:fastNLP.modules.encoder.variational_rnn.VarRNNBase

基类 fastNLP.modules.VarRNNBase

别名 fastNLP.modules.VarLSTM fastNLP.modules.encoder.VarLSTM

__init__(*args, **kwargs)[源代码]
参数
  • input_size – 输入 x 的特征维度

  • hidden_size – 隐状态 h 的特征维度

  • num_layers – rnn的层数. Default: 1

  • bias – 如果为 False, 模型将不会使用bias. Default: True

  • batch_first – 若为 True, 输入和输出 Tensor 形状为 (batch, seq, feature). Default: False

  • input_dropout – 对输入的dropout概率. Default: 0

  • hidden_dropout – 对每个隐状态的dropout概率. Default: 0

  • bidirectional – 若为 True, 使用双向的LSTM. Default: False

training: bool
class fastNLP.modules.encoder.variational_rnn.VarGRU(*args, **kwargs)[源代码]

基类:fastNLP.modules.encoder.variational_rnn.VarRNNBase

基类 fastNLP.modules.VarRNNBase

别名 fastNLP.modules.VarGRU fastNLP.modules.encoder.VarGRU

__init__(*args, **kwargs)[源代码]
参数
  • input_size – 输入 x 的特征维度

  • hidden_size – 隐状态 h 的特征维度

  • num_layers – rnn的层数. Default: 1

  • bias – 如果为 False, 模型将不会使用bias. Default: True

  • batch_first – 若为 True, 输入和输出 Tensor 形状为 (batch, seq, feature). Default: False

  • input_dropout – 对输入的dropout概率. Default: 0

  • hidden_dropout – 对每个隐状态的dropout概率. Default: 0

  • bidirectional – 若为 True, 使用双向的GRU. Default: False

training: bool