
领域:强化学习 强化学习很久以来的一个重要挑战就是学习control agents能够直接从高维度的场景输入,例如视觉或者语言中。大多数成功的R...
解决问题:Representation Learning 解决方法:policy gradient reinforcement learning...
论文来源:AAAI2018 本文的创新点:standard attention does not model structural depend...
论文链接:https://www.paperweekly.site/papers/1833 非结构化text中的针对实体关系抽取任务,SemEv...
将CNN和LSTM结合起来学习句子的representation,在情感分类和问题分类的任务上都取得了很好的结果。 Traditional se...
论文链接:http://www.sentic.net/sentic-lstm.pdf 会议:2018 AAAI 文章对Attention机制的解...
论文来源:ICLR 2017 本文利用self-attention的方式去学习句子的embedding,表示为二维矩阵,而不是一个向量,矩阵中的...
论文来源:AAAI 2018 本文增加了modeling word-aspect之间的关系,模型采用了循环卷积和循环相关性(circular c...
论文链接:https://arxiv.org/pdf/1802.05577.pdf
文集作者