Consequential ranking algorithms and long-term welfare
- arxiv 2019
- 利用强化学习优化推荐系统(排序算法)的长期目标
- 现有的推荐系统排序算法,都是优化的立即目标,也就是说让每一次的收益最大化,但是这样可能并不符合长期的收益最大化
- 因为考虑到每次的排序结果,都会对以后的状态造成影响:用户偏好和item的特征都可能改变
- 例如一个新闻推荐系统,经常把假消息的推荐排序靠前,可能用户的CTR会比较高,但是这样不利于平台的长期收益
- 本文把多次的推荐结果看作一个MDP,每次动作是一次排序,用RL来解决这个问题
Learning Semantic Representations for NovelWords: Leveraging Both Form and Context
- AAAI 2019
- 学习训练集中没有出现过的单词的word Embedding
- 前人一般是把新单词的Embedding设为其他单词Embedding的平均
- 本文同时利用单词的form和context得到单词的Embedding
- 对form的建模就是用n-gram Embedding的平均
- 对context的建模就是用周围的词的平均
- 最后把以上两者按不同比例加起来
- loss就是把常见的单词的Embedding和利用form+context的Embedding做MSE
Learning Attribute-Specific Representations for Visual Tracking
- AAAI 2019
- 学习视频的分属性的表示,用于目标追踪
- 因为不同的目标追踪视频几种不同的属性,例如:target motions(目标在移动)、camera motions(相机在移动)、illumination variations(光照变化)、occlusions(遮挡)、scale changes(尺度变化)等
-
所以本文提出一种两步训练的方法,如下如:
两步训练方法 - 先学出视频的不同属性下的表示(因为可能同时有多个属性存在),然后用不同属性表示来预测相应的属性来训练这部分的参数
- 得到每个属性下的表示,然后合并起来预测目标位置
Learning to Embed Sentences Using Attentive Recursive Trees
- AAAI 2019
- 用一个新的树形结构学习句子的Embedding表示
-
以前的语法解析树种,单词全部在叶子节点上,如图:
以前的句法解析树 -
本文提出一个新的数形结构(AR-Tree)用来对句子建模,数上的每一个节点对都是单词,如图:
Attentive Recursive Tree - AR-Tree中,最重要的单词在最上面(根节点),建树的时候,每次选出最重要的当根节点,然后左右分两部分递归建树
- 每个单词的重要性通过LSTM+Dense得到
- 建树之后用Tree-LSTM对树建模
- 由于建树部分使得模型不可微,所以用强化的方法来训练
Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering
- AAAI 2019
- 做答案选择(也就是答案排序),和基于知识库的QA(KBQA)
- 以前的方法忽略了多个数据之间的关联,也就是不同QA对之间应该具有一些对互相有用的信息。
-
所以本文提出一个多任务学习的方案,也就是对多条数据当做多任务学习,整体框架如下:
整体框架
Online Embedding Compression for Text Classification using
Low Rank Matrix Factorization
- AAAI 2019
- 一种把word Embedding压缩的方法
- 本文觉得word Embedding占用了太多的存储空间,所以想把它压缩一下
- 通过矩阵分解的方法,例如Embedding矩阵是
(
),分解乘
,
- 这样就把
压缩成了两个小的矩阵
和
- 我认为这就是先Embedding成一个较小维度,然后Dense成较大维度
Personalized Question Routing via Heterogeneous Network Embedding
- AAAI 2019
- 做回答者推荐,给定一个新问题,给这个问题推荐优质回答者
-
对于数据集,本文考虑到3个信息:问题内容、提问者、回答者,用这3个信息对数据建图,节点是这3个中的一个,边是他们的关系(提问或者回答),如图:
图 - 对问题先用LSTM学出问题的表示
- 然后用随机游走的方法在图上生成序列,用word2vec的方法学习每个节点的表示
- 最后得到了每个问题、提问者、回答者3个表示,用CNN对他们建模得到预测的分数,就是这个回答者能给这个问题提供优质答案的分数