本周二晚上协助指导的一名博士生Dr.周毕业请客吃饭。Dr.周和我不在同一个课题组,参加此次吃饭的部分人员我并不熟悉。经介绍有两名是今年7月刚上了一年课入所的研二学生,还有一名是明年7月毕业的博士生。聊天中获得两条引起我后来思考的信息,第一条是,这两名研二学生一个礼拜前刚刚参加国内某公司举办的机器翻译竞赛,分别拿了中英翻译和英中翻译的第一名,奖金各30W。第二条信息是这位马上毕业的博士,签约某互联网公司,年薪50w起。
这几天我一直在思考:作为人工智能领域的技术从业者,在当前这个AI热潮时代如何保持长期可持续发展。自己从事这个领域也有十几年,之前主要是做模式识别,只是因为个人感兴趣,觉得它可以替代人的一部分重复劳动,把人解放出来,往大了说算是生产工具的革新工作。过去本领域入门和从业的思路基本是,先把领域内经典的文章好好看,重点算法自己亲自实现,再跟踪最新的算法,找到不足设计改进方案实验再实验,直到有好的结果发表文章或者应用到系统或项目中。从入门到熟练再到出好成果快的1-2年,慢的2-3年。然而随着这一波开源和神经网络技术的浪潮,有些规则在发生着潜移默化的变化:开源思想让人工智能算法的实现和改进变得前所未有的便捷,只要有编程的基础,大多数开源算法都可在一两周左右掌握并再现算法的实验结果,无论是直接对算法进行应用还是在当前基础上进一步改进创新,baseline的门槛都低了很多。神经网络尤其是深度神经网络技术,让算法的自适应性大幅度提高,尽管也需要参数调优,但模型的关键已变为是否拥有海量标注数据和大规模计算资源。这一点也是造成目前很多新的算法都先从产业界,尤其是google、openAI、deepmind爆发的主要原因,他们因和用户距离最近拥有更多数据且通过雄厚资本构建普通企业无法企及的计算集群,从而在相同的AI算法探索方向上走的更快。而王者通吃的互联网规律又进一步将这种优势放大,终于领域内的选手一次又一次的在竞争中成为这些顶级AI公司的观众又无能为力。
而另外一个思考便是,神经网络技术的普适性和低门槛让这个领域的经验积累变得可有可无。过去多年学习的各种特征表示、分类理论与算法在深度神经网络面前显得多余,任何一个领域收集足够的数据利用基本的神经网络进行训练便可很快取得基本可用程度的AI模型,优化的门槛也低到多收集样本,多跑实验即可。这两天在NIPS大会上关于AI变成“炼金术”的争论大概也是因为在这次AI浪潮中算法背后的理论被无情的抛弃,取而代之的是搭积木似的组合与数据驱动的计算资源pk。大公司当然可以沿着有钱任性的实力比拼中继续前行,而作为一直follow的二线从业者,在大公司背影渐行渐远的路口,我们更好的选择是什么呢?