昨天去参加了西湖大学工学院举办的WISE会议,记录一下三个比较有意思的报告:
阿里达摩院 Yen-Kuang Chen
提出的比较有意思的idea是,在做图像或者视频的时候一般都要先进行压缩,再decode回去进行识别或者其他操作。如果直接使用压缩的数据处理,一是不需要decode,一是能获得更多信息。
Compression-*AI
- Compression-Based AI
不需要decoding
Compression-assisted AI
AI-Based Compression
先用cnn encode,再decode到原来的图像,不断训练直到原来的图像和decoded的图像一样。
GAN
第二位是浙大计算机科学学院的李玺老师
其个人主页:https://person.zju.edu.cn/xilics
第一个工作是让图像匹配跟踪更加Continuous
第二个工作:
Kinect点云做手势识别
场景分割出来再做路径预测
IEEE TCYB 期刊:https://ieeexplore.ieee.org/xpl/topAccessedArticles.jsp?punumber=6221036
第三位是东南大学的田玉平老师
(现在到杭电去任职了)
内容为时间同步的算法,communication必然会存在delay,以前传统的协议一般是知道一边的delay,另一边的delay直接对称处理,而真实的delay分布肯定不是对称的,在random delay的情况下,之前有一篇automatica的文章提出了ATS算法,但是其不收敛,田老师改进了ATS算法,使其收敛。
Attachment
Communication 必然存在delay
ATS是一种高引同步算法,但是当random delay时,不收敛