请问转化为[seq_len,batch_size]的形式是必要的吗?有时候看到输入也可以是[batch_size, seq_len]维度的哎
通俗讲解pytorch中nn.Embedding原理及使用函数调用形式 其为一个简单的存储固定大小的词典的嵌入向量的查找表,意思就是说,给一个编号,嵌入层就能返回这个编号对应的嵌入向量,嵌入向量反映了各个编号代表的符号之间的语义关系...
请问转化为[seq_len,batch_size]的形式是必要的吗?有时候看到输入也可以是[batch_size, seq_len]维度的哎
通俗讲解pytorch中nn.Embedding原理及使用函数调用形式 其为一个简单的存储固定大小的词典的嵌入向量的查找表,意思就是说,给一个编号,嵌入层就能返回这个编号对应的嵌入向量,嵌入向量反映了各个编号代表的符号之间的语义关系...