前言:上周五(12月8日),上海社会科学界联合会举办了第二届“人工智能与未来社会”高峰论坛;下面,是咱们“AI产品经大本营-游学小分队”驻上海团友@曰月德 发回的现场干货总结(鼓掌)~
现场PPT & 录音链接:https://pan.baidu.com/s/1geFWhiV 密码: 5eq8
一、第一届“人工智能与未来社会”高峰论坛的回顾
嘉宾:华东政法大学政治学研究院院长@高奇琦 教授
第一届人工智能峰会的回顾和延伸:
1、上海交通大学电子信息学院@熊红凯 教授完全从技术角度来讲人工智能发展:
1)最大的问题是两大块,一个是基于数据的,一个是基于知识的;
2)神经网络的不可解释性,是未来人工智能最大的风险。
2、AI专业领域最前沿的一位学者@王飞跃教授,介绍了3个IT和3个世界:
1)平行技术(时代):老IT对应的是工业时代,旧IT对应的是信息时代,新IT对应的是智能时代。
2)五张网理论:交通网+能源网+信息网+物联网+智联网
3、@顾骏教授的观点比较悲观:人工智能的本质s是无机智能,最后无机智能要取代有机智能。
注:第一期内容详见下载资料《探索与争鸣2017年第10期人工智能与未来社会专刊(新)》
主题一:人工智能与现实世界
二、人的神性与AI的魔性
嘉宾:武汉大学计算机学院@蔡恒进 教授
1、人的认知源于对“自我”和“外界”的区分。
2、认知坎陷定律:人通过坎陷认知世界,也通过坎陷改造世界。
抽象地理解,坎陷世界能够操控原子世界,并变得越来越强大,但却不能依赖上帝或天的存在来为其前途负责。
人类在人工智能时代面临的关键问题:不止是个体意识之“心”和群意识之“心”间的冲突与和解,更要为机器立“心”。
3、“我”的嵌入与无限(人创造了“无限”的概念)
虽然永远见不到“无限”,但是“无限”的存在性毋庸置疑。
它在我们思考问题、做数学运算的过程中都起到不可替代的作用。
4、总结:人类能够发现新的规则。机器在人类给定的规则下,能够表现出比人类更优秀的计算能力。
主题二:人工智能与自然科学
三、人工智能带来的冲击及其局限性
嘉宾:中科院上海微系统与信息技术研究所研究员@张晓林
1、人工智能的第三次浪潮真的是“狼来了”,对社会方方面面产生很大影响。并认为目前的人工智能其实是一种自编程计算机。
2、AI的本质
机器学习的两个必要条件:足够的信息和判断结果是否被改良的标准。
从这个意义上讲宇宙万物都是智能系统。但计算机很难模拟大自然,机器智能最终一定会回归大自然。
3、类脑智能研发的思考:生命科学正处在转折期
三、社会大脑调控下的构建人机和谐社会的可控性与控制点探讨
嘉宾:浙江大学科学技术与产业文化研究中心@张为志 教授
1、不管社会大脑准不准确,需要警惕两种思维:大工业社会时的技术d思维(避免犯同样的错误)+以人类为中心的思维。
2、社会大脑与新全球化。
机器智慧体系:仍以自然人为主,只不过是借助工具,在此过程中会涌现出新的事物——机器智慧。
比如阿尔法狗,打败500个人产生新的算法,并进行集成、优化,最终会形成人机混合的智慧。
3、两个智慧的发展路径:“人脑自然人意识产生路径”+“社会大脑机器智慧产生路径”
4、人的生物脑和社会脑是两个脑:
生物脑不是以知识积累为基础,而社会脑则是基于社会海量知识的。
我们的社会大脑正在形成,形成路径不同于生物脑,但最终能够突破生物脑。
5、强调成立AI伦理委员会的必要性,应重点关注如何让机器大脑的集体向善问题。
主题三:人工智能与未来社会
四、人工智能叙事与未来想象
嘉宾:华东师范大学中文系@王峰教授
1、(科幻)叙事的想象有三个层次:近景想象、中景想象和远景想象。
2、离我们最近的想象不一定是近景想象,可能是远景想象。
3、近景想象:技术进步的加速度
以机器人索菲亚拿到公民权利为例子,建议不要轻视这一现象,因为这是未来发展的一个信号。人工智能发展过程中,人在不断改变技术、周围状况,但还需要改变自己的观念去接受它。
4、总结:
1)从叙事角度论述知识更为深刻;
2)人当下的焦虑体现在远景想象中;
3)人死了才得以重生。
五、人工智能应用的伦理控制
嘉宾:复旦大学哲学院@徐英瑾 教授
1、人工智能并没有取得科学上的巨大进步,现有成就都是历史上积累的,AI目前的泡沫体现在对AI的高预期和理论基础薄弱之间的张力。
2、AlphaGo的胜利并不值得庆贺。比如下棋和踢球就是不同的情况,因为踢球会遇到很多随机性事件,而智能机器很难处理这些随机性事件。
3、人工智能发展的四层次:当前人工智能的发展并没有吸收语言学、哲学等学科发展的成果,最后只剩下工程学,是有缺陷的。
4、未来AI可能会发展出自己的语言(人类无法理解)。
因为双方的体型不一样,可能发展出不同的文学隐喻。(比如对风的感觉不同)
为了让机器更好地理解人,将来的机器人必须是类人机器人,但要比人类弱,以确保人类的安全。
问答环节:
1、近些年人工智能都是工程驱动,用伦理哲学等理论去驾驭它是否合适?
徐英瑾教授:未来控制整个人工智能伦理的要点并不是担心它越来越聪明,而是担心它不够聪明。我们需要担心是恰恰是不要让它与更强的物理接触,这样就会导致人与智能机器之间实力的失衡。比如,我们可以把很聪明的人工智能装在大白这样的外壳中,这样它们就很难对我们造成伤害。
2、 人工智能属于真正的智慧么?
沈湘平教授:人工智能信息处理快稳准,不是真正的智慧。人工智能快速准确的做事,只能算聪明。但是如何做好事、做善事,符合真善美,这是真正的智慧。人工智能再发展,也不可能预测人类社会未来的走向。
以阿尔法狗下围棋为例,它能下赢。可是它知不知道这盘棋不应该下赢,比如跟领导下棋。
3、 蔡恒进教授关于人工智能泡沫的观点:
90年代美国互联网泡沫,现在很多都实现了。
真正的创造是靠普罗大众,但不可否认前期也会有一些学者具有远见并开始讨论。
主题四:人工智能与实践实用
六、人工智能与人的未来
江西财经大学@黄欣荣 教授
1、人工智能的火爆走向两个极端:产业界过分乐观+人文社科界过分悲观
2、其它比人厉害的东西有很多(比如动物、机器等),为何人工智能的出现被认为有威胁?
担忧人工智能的发展是基于错误的逻辑假设,把机器人和人对等,两者处于完全平行的位置,从而造成错误的结论。
人工智能即使有智能,也不会有七情六欲。比如不同国家不同阶级会为利益争斗会相互倾轧,人工智能则不会。而现实情况中,很多人把人类社会利益纠纷,投射到人与人工智能之间的关系上。
机器不一定会有人的自私性和情感,所以它跟人类不一定完全对立。
七、法律人工智能建模的基础问题
嘉宾:中山大学哲学系@熊明辉 教授
1、怎样用人工智能为法律、伦理服务。
2、“法律三段论”:
传统情况:由法律规范和案例事实到裁判结果,以事实为根据,以法律为准绳。
当前司法改革,改的就是审判中心主义,要把裁判结果改为法律结论。
因为裁判过程中给出证据不一定就等于给出事实,其中有一个推理过程,这是建模过程中需要注意的问题。
传统过程忽视从证据到事实之间的推理,得出的结论就是不可靠的,所以需要对法律推理进行扩充。
3、“法律五段论”:要从法律规范到规范解释、从法律证据到案件事实,最后才是法律结论集。
八、论坛总结@高奇琦
1、第一个问题:要不要发展AI?
发展的三个阶段:跟跑、并跑、领跑。
中国第一次走到世界的前面。
此外,十九大报告提出的宏大理想,提出建设创新型国家,人工智能是很重要的支撑。
2、第二个问题:发展AI的风险有多大?
非常大。
依次是技术风险(算法黑箱、算法独裁)>社会风险(失业)>伦理风险(隐私)。
3、发展AI三种风险的应对:
技术风险:走神经网络与知识图谱合力的路,基于数据的AI和知识的AI同步进行;
社会风险:一是党 领导一切;二是党的领导与以人民为核心的发展理念结合;
伦理风险:一定要对未来有重大风险的事物划出红线。
以上内容,来自饭团“AI产品经理大本营”,点击这里可关注:http://fantuan.guokr.net/groups/219/ (如果遇到支付问题,请先关注饭团的官方微信服务号“fantuan-app”)