发布时间:2025-03-10 17:34:52    次浏览
选自卫报机器之心编译参与:李泽南 探索人工智能的影响──史蒂芬·霍金在LeverhumeCentrefortheFutureofIntelligence周三的开幕仪式上。史蒂芬·霍金教授曾经警告世人,强人工智能的出现是「人类历史上发生的要么是最好的,要么是最坏的事情」,同时建议创立一个致力于研究未来人工智能的学术机构,并认为「这对人类的文明和生存的未来至关重要」。霍金出席了本周三剑桥大学未来智能研究中心 Leverhulme Centre for the Future of Intelligence(LCFI)的开幕仪式,它是一个多学科的研究机构,联合了牛津大学,剑桥大学,帝国理工和加州大学伯克利分校的力量,研究方向是为了探寻目前快速发展的人工智能中的一些开放性问题。 Huw Price ,研究中心的教务主任霍金,这位举世闻名的物理学家曾提醒人们要小心人工智能,他担心人类制造出具有自我意识的超级人工智能可能会毁灭自身,但很快他又强调了人工智能研究更可能为人类造福。「人工智能的出现很可能会让人类受益,」他说。「当人类的思想被人工智能放大之后,很难想象我们将实现什么样的新成就。人工智能也许就是下一次技术革命的基石,我们将会消除上一次革命──工业革命对自然造成的破坏,同时一定会向着最终消灭疾病和贫穷的道路上前进。」「我们生活的方方面面都将被改变。简而言之,人工智能的出现将是人类文明历史上最重要的事件。」Huw Price 成为了这家新学院的教务主任,他同时也是剑桥大学的 Bertrand Russell 哲学教授,霍金同样位列其中。Huw Price 说,这家新机构的成立部分原因在于剑桥大学的存在风险中心(Centre for Existential Risk)。那是一家经常被小报渲染成「末日研究所」的研究机构,探究过人类可能面临的种种危机。与之不同的是,LCFI 的研究方向仅限于人工智能领域。「我们正在做的是消灭『终结者』出现的风险」Price 说道,「但正如学院名字所指的,我们还会做很多其他的事。」苏塞克斯大学认知科学教授,人工智能先驱 Margaret Boden,对这些努力的成果表示支持,她成为了 LCFI 的顾问。在 2009 年她曾表示,关于人工智能危险的担忧并没有被认真对待,甚至对于人工智能的研究者而言也是如此。在开幕式中,她说道,「人工智能的前景令人兴奋,但这种技术有其限制,如果随意使用可能酿成大祸。」在学术界,对于人工智能潜在风险的警告声不绝于耳。很多科技界的先驱,如其中最有名的埃隆·马斯克,也曾经表达过对于人工智能的担心,他认为超级人工智能可能会危害人类。LCFI 的研究范围覆盖人工智能的所有应用领域,从智能手机,外科手术机器人到「终结者」式的军用机器人。这家研究机构获得了来自 Leverhulme 信托的 1000 万英镑资助,研究中心致力于保证人工智能对人类有益。©本文由机器之心编译,转载请联系本公众号获得授权。?------------------------------------------------加入机器之心(全职记者/实习生):hr@almosthuman.cn投稿或寻求报道:editor@almosthuman.cn广告商务合作:bd@almosthuman.cn