霍金:AI恐成人类史上最糟事件 不懂控制后果堪忧

编辑: 徐怡 来自: 环球网 查看 [ 0] 次 评论[0 2017-11-8 10:11
摘要: 霍金表示:“除非我们事先做好准备并避免潜在风险,否则AI可能成为人类文明史上最糟的事件。因为它会带来危险,象是制造致命的自主武器(autonomous weapons),或是成为少数人压迫多数人的工具,亦可能对经济造成巨大 ...

霍金

【环球网综合报道】英国著名物理学家史蒂芬.霍金(Stephen Hawking)周一表示,人工智能(AI)的崛起可能是“人类文明史上最糟事件”,除非人类社会能够找到控制AI发展的方法,否则后果不堪设想。

台湾“中时电子报”11月7日援引CNBC消息称,霍金是在葡萄牙里斯本举办的网络高峰会(Web Summit)演讲时做出这番评论。

霍金在演讲中谈到AI未来发展的潜力,象是协助复原人类对自然世界的破坏、根除贫穷与疾病问题,并“改造”社会每一个层面,但他也承认未来充满不确定性。

霍金表示:“除非我们事先做好准备并避免潜在风险,否则AI可能成为人类文明史上最糟的事件。因为它会带来危险,象是制造致命的自主武器(autonomous weapons),或是成为少数人压迫多数人的工具,亦可能对经济造成巨大破坏。”

(责编:海声)

回到顶部 我要反馈