栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > 学术 > 学生必读 > 作文与考试

史蒂芬?霍金

史蒂芬?霍金

成功创造人工智能将成为人类文明史上最重大的事件。然而,这也有可能成为最后一个重大事件——除非我们学会如何规避风险。

——[英]史蒂芬·霍金

在剑桥大学“莱弗休姆的未来智能中心(LCFI)”成立庆典上,现代最伟大的物理学家之一的史蒂芬·霍金就人工智能(AI)发表了演讲。近年来,人工智能得到各国政府的重视,但霍金一直声称应该持谨慎态度,人类有可能会因自己建立的智能而灭亡。他在演讲中说,人工智能技术的确有希望带来巨大福利,比如根除疾病和贫困,但它同样可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。而且“人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施”。人工智能领域里的许多先驱都提出了人工智能的风险问题,硅谷“钢铁侠”马斯克就曾与霍金一起,建立了人工智能防范联盟。如今的LCFI的一项重要使命就是化解AI风险,霍金和有识之士一起,希冀能为人类的未来添置一道安全屏障。

[适用话题]人工智能;事物的两面性;利与弊……

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/xueshu/408202.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号