2012年11月27日星期二

“恶魔”威胁终结人类 剑桥学子拔剑 图

火人


人类造出超级人工智能,有可能玩火自焚吗?电影里的终结者会走进现实吗?


电影里,施瓦辛格扮演的机器人“终结者”说:“我会回来!”


剑桥大学的学者决定严阵以待,确保人类不至于被自己制造的恶魔机器人毁灭。


这个“终结者研究中心”(centre for 'Terminator studies)的主要任务是研制如何抗衡可能导致人类灭绝的四大“恶魔”:人工智能(artificial intelligence)、气候变化(climate change)、核战争(nuclear war)和“邪恶”的生物技术(rogue biotechnology)。


这个中心的正式名称是“生存风险研究中心”(Centre for the Existential Risk,CSER)。


杞人忧天?


很久以前,人类自我毁灭就是科幻小说和电影的主要题材;科研发展也在不断“试水”未知领域、开辟新疆域。


最大的风险之一就是自掘坟墓。


如果这种担心在几十年前会被嗤为杞人忧天,那么现在剑桥大学设立这样一个防止人类灭绝的研究中心,或许从一个侧面印证了这种可怕情景并非纯属虚构。


这个中心由三人联合创办:里斯勋爵(Lord Rees),英国皇家天文学家,《我们的最后一个世纪》(Our Final Century)一书作者,以及互联网电话服务Skype的共同创始人之一扬·塔里安(Jaan Tallinn)。


里斯勋爵在他2003年出版的这本书里预言,人类表现出来的各种自残、自毁行为,最终可能导致2100年人类彻底灭绝。


灾难之盒


?


还有一位创办人是剑桥大学知名哲学教授休·普莱斯(Huw Price)。


普莱斯教授曾经提醒人们,“超级智能机器”(ultra-intelligent machine),或称人工综合智能(artificial general intelligence, AGI),确实涉及人类存亡。


他说,AGI 有可能带来“潘多拉的盒子”(神话里盛满灾难的盒子,打开盒盖,灾难飞洒人世),我们对此务必重视;错过这个关键时刻 ,就可能陷入灭顶之灾。


当然,他承认现在谁都无法准确预计超级人工智能AGI可能带来哪些具体灾难,但这也正说明很有必要立项研究科技发展的“灾难性的一面”。


他在中心剪彩仪式上表示,剑桥大学已经存在了800年,为了后人能够庆祝它建校1000周年,现在就应该打磨抗击“人类终结者机器人”的利剑。


来源:

RSS全文订阅中国禁闻,不翻墙看禁网,SSL全程加密,安全可靠方便 | Email订阅


相关文章:



本文标签:, ,





via “恶魔”威胁终结人类 剑桥学子拔剑 图

没有评论:

发表评论