霍金预言:人工智能可能会毁灭人类,人类应该怎么做?

斯蒂芬·霍金(Stephen Hawking)是一位著名的物理学家和天文学家。在他的著作《答案简史》中,他写到:“人工智能的发展,有可能会超过人类智慧的极限,并逐渐替代人类成为支配地球的物种。”

虽然“人工智能” (AI) 的出现与需求的增大已经渐入我们的日常生活,但是,越来越多的人也担心,人工智能会逐渐变得越来越聪明,最后可能会危及到我们的人类生存。与此同时,有研究人员指出,当一台计算机的智能水平提升到了某个点,它就有可能产生意识,也就是说,计算机很可能会“活”过来,成为一台有自我意识的机器。

针对这种情况,霍金认为,我们需要采取措施来保护人类不会被人工智能所替代,达到这个目标的途径是通过该技术的“金字塔式的管理结构,即高于技术等级的智能控制机制。

相关信息

友情链接