当人类站在人工智能带来的变革前,是该庆幸科技进步让生活更上一层楼,还是该警惕变革后可能出现的人工智能威胁?
如果真如科幻电影中所描述的一样,当人类创造的机器觉醒威胁人类时,我们是否有能力像电影的主人公一样拯救自己?
为什么比尔·盖茨、特斯拉CEO(首席执行官)马斯克、物理学家霍金等人提出警惕人工智能?人工智能威胁究竟是什么?为什么这些科技大佬会希望建立人工智能利益最优化联盟?
作为全球知名的人工智能专家,尼克?波斯特洛姆(Nick?Bostrom)在其所写的《超级智能:路线图、危险性与应对策略》一书中给出了答案:人工智能威胁不会很快到来,但人工智能应当在提前防范、控制的前提下发展。
波斯特洛姆在接受澎湃新闻专访时表示:为人工智能设定安全范围,动机系统是关键,未来人工智能或许能帮助人类实现非物理形式上的永生。
尼克·波斯特洛姆(http://www.nickbostrom.com)是全球知名思想家,牛津大学人类未来研究院院长,牛津大学哲学院、马丁学院教授。波斯特洛姆所带领的人类未来研究院,运用数学,哲学和科学等交叉学科,探索未来技术带来的变革,权衡道德困境,并评估主要风险和机遇。该研究所的目标是要清晰地规划人类未来技术的使用。
澎湃新闻:你认为我们现在已经进入超级智能时代了吗?
尼克?波斯特洛姆:我认为我们现在还不算处在超级智能的时代。至少在我看来,人工智能目前还只是一种不同信息技术的集合,然后我们将这种技术运用到了机器人上面。
澎湃新闻:你的新书《超级智能:路线图、危险性与应对策略》描述了超级智能的未来,人工智能的终极阶段是超级智能吗?
尼克?波斯特洛姆:未来,从技术上来说,按照人工智能规则,我们可以拥有机器类的超级智能,当然还有生物科技中的超级智能,能够继承人类智慧。你甚至可以设想下拥有各种人工智能的集合,如果有人能够找到联通各种人工智能的方法,让这些智能更有效地沟通,解决难题,就能出现超级智能。同时,这种集合还拥有更出色的研究团队,更好的威胁预警系统。
总的来说,超级智能是我们可以拥有不同方面的人工智能联合。但在我的书中,我关注更多的是机器的超级智能。
澎湃新闻:特斯拉CEO马斯克说人工智能比核武器更危险,并指出你书中所写的智能控制非常值得一读。在你看来,人工智能的威胁真的会发生吗?
尼克?波斯特洛姆:我认为超级智能可能离我还有段距离,但如果它真的发生了,那将是非常重大的事情(it will be a great deal),所以我认为有些研究是现在就要开始着手的,例如人工智能安全、人工智能控制。这样,当我们真正制造出机器超级智能时,能够很好地解决人工智能威胁,做好控制。现阶段,人工智能还不是威胁,但关于人工智能的工程设计,人工智能的发展动机,以及是否有利于人类,这些问题是需要整体提前考虑的。我们不能假设,所有的人工智能发展能够自然而然朝着人类向往的地方发展。如果我们能解决好这些问题,人工智能的威胁不会很快就到来。
澎湃新闻:为什么机器人工智能最后会变成威胁?
尼克?波斯特洛姆:该担心的问题并不是人工智能会变坏。只是说,人工智能会产生不好的结果,它们可能会威胁到人类利益。有一个很好的例子,假设人类创造的人工智能机器的最终目是生产更多的回形针。这时人工智能会告诉你需要建立更多的回形针生产厂。接着,进入到超级智能后,人工智能可能会自己想到要创造更多的回形针,就需要更多的人。原因是有更多的人,才能消费更多的回形针,另外,人体中含有的元素也是制造回形针的材料。因此,超级智能可能就会对人类产生威胁。
关键是,如果你对人工智能输入不同的目标,一开始只是想解放劳动力,帮助人类,但最后缺少必要限制后,就会演变为对人类生存的威胁。我们只是想提醒人类,在制造人工智能工具的时候,要对目标进行特殊的限制,才能避免这样的威胁。 加拿大华人网 http://www.sinonet.org/