AI总结

当目标是规定现实并不存在的技术时候,我们必须不惜任何代价避免这个方式。基于我们个人的想法限制住发展中的科技,这种方法也许确实会帮助我们避免被“邪恶机器人”之手消灭,但也许会由于自然原因引起我们的灭绝,比如通过让人类更困难使用技术去适应的进化。

基于伊隆马斯克,斯蒂芬或兹尼亚克,比尔盖茨,比利乔,史蒂芬霍金和FIL的公开信陈述,很明确他们害怕的是一个“不友好的人工智能”并且简而言之他们所想要的是一个“友好的人工智能”。

“友好”与“不友好”的词汇并不指的是一个人工智能系统的个人特性。这些词汇指的是一个人工智能的行动是否将会有一个积极或者消极的影响。这是因为人工智能是电脑并且他们不想要有人的价值。我们试着拟人化人工智能并归因这些于我们的道德价值比如由我们的意识形成的“好和邪恶”,“道德与非道德”。这些归因仅仅在成千上万年的社会交际中得以发展。人工智能将不会分享人类的特性,除非我们非要创造他们,让他们去做。他们的行为基于旨在完成一个任务和目标。为了达到这个目的,比如,那里有一个AGI,他们的主要任务是保证树木在一个确定的松树种植区被保护免于外来物种的侵入,来保证DNA的纯净。我们应该不会惊奇当这样一个AGI选择奇特的方式比如毁掉整个地区的飞虫数量。没有意识到这个AGI的一个人的目的也许会轻易地给他们贴上“邪恶”的标签以及一个“对人类危险”因为他们无法预测AGI的动机和目标是什么。相似的一个大猩猩会惧怕切洋葱,因为这是一个进攻信号。毫无疑问,这很像那些支持早产的人工智能规则。

这个目标为准的方法应用到法律和合法研究会。Ryan Calo争论

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。 上面这句话不是危言耸听,请耐心的看完本...
    WriterSky阅读 9,434评论 4 23
  • 一. 本文之前的工作 a berkeley view of 系列共出现过2篇,除了本文要总结的这篇,还有2009年...
    skywalker阅读 5,582评论 0 7
  • 居然到厄瓜多尔6个月了,总觉得时间过得太快,快到让你觉得出门就在上一刻。在这样的工作环境下越来越不知道怎么做...
    GM2016阅读 3,034评论 0 0
  • 林清玄先生散文里写到:“我常觉得在别人喜庆中锦上添花容易,在别人的苦难里雪中送炭却很困难,那种比例,大约也是八九与...
    止于丘隅阅读 1,157评论 0 0
  • 已经一个多月的时间没有登录简书了 这段时间发生了很多事情 好的 坏的 也给我带来了许多改变 也更坚定了自己的方向 ...
    武小宇阅读 1,150评论 0 0