人工智能,“人类发生过的最糟糕或最好的事情,”霍金说

作者:鄢觏

天体物理学家在人工智能方面的成倍增加,他认为这是一种危险,但也是机会的来源。作者:Morgane Tual 2018年3月14日下午2:17发布 - 2018年3月14日下午8:23更新播放时间2分钟。人工智能并不是斯蒂芬霍金的专长,因其对黑洞和宇宙秘密的研究而闻名。但近年来,这个著名的英国天体物理学家的声音,死亡周三,3月14日,成为最强大的一个,提醒有关的人工智能技术(IA)的影响公众。 “我认为开发完整的人工智能可以结束人性,”他在2014年12月接受英国广播公司采访时说。他说:“一旦人类开发出人工智能,它就会独自起飞,并重新定义自己越来越快。”由于生物进化缓慢而受限制的人类无法参与竞争并且不堪重负。 “这些话已经经历了强烈反响,而从2010年代初,显著进步熟悉的人工智能技术 - 得益于先进的深度学习,与计算能力和数据质量现在可访问。几个月后,斯蒂芬·霍金是,沿着特斯拉的头,伊隆·马斯克,一封公开信,呼吁“杀手机器人”禁止的最负盛名的签署国之一。千余人,多数在人工智能和机器人技术研究人员,曾表示担心“与IA军备竞赛,”唤起技术,以“选择和作战目标没有人为干预“。这封信的作者还担心这些技术将落入恐怖分子,独裁者和军阀的手中。最近,在Web峰会在里斯本11月天体物理学家,也是顾问学院生命的未来研究AI的风险,呼吁尽快通过的“规矩”框架人工智能研究。他在一次会议上说:“我们需要意识到危险,识别它们,并使用最佳实践和框架,以便提前做好准备。”人工智能的兴起可能是人类有史以来最糟糕或最好的事情。 “因为如果霍金对AI的担心是经常强调定期与伊隆·马斯克危言耸听的声明有关,英国研究人员对这些技术细致入微的看法,这也被认为是有希望的。在2016年10月,他说,在研究中心的关于AI的发生在社会上剑桥大学开幕之际,AI的潜在好处是“巨大”。 “当我们的思想被AI放大时,我们无法预测我们能够实现的目标。也许借助这一新技术革命的工具,我们将能够消除对前一工业化性质的一些损害。我们希望最终能够消除疾病和贫困。 “人工智能可能是我们文明史上最重要的事件,”他补充说。天体物理学家曾经那么欢迎这一研究中心的创建,以其著名的幽默感:“我们花了很多时间来研究历史,即,不可否认,愚蠢的主要故事。人们正在研究这是一个值得欢迎的变化,而不是智力的未来。....