栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > 学术 > 文学期刊 > 意林

韩国研制“杀人机器人”,世界人民不答应

意林 更新时间: 发布时间: 学术归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

韩国研制“杀人机器人”,世界人民不答应

时事引读

2018年4月,韩国科学技术院(KAIST)与韩国顶尖财团合作开设的人工智能武器试验室引发世界舆论关注。4月4日,全球超过50名人工智能研究人员联名提出抵制,原因在于该机构试图研发自主武器。4月9日,联合国《特定常规武器公约》政府专家小组在瑞士日内瓦召开会议,讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。有媒体表示,韩国此举必然会造成毫无道德、伦理限制的杀人机器四处横行,而人类却束手无策的情况。对此,世界各地网友都表示“千万不要打开这个潘多拉魔盒”,否则人类将有灭绝可能。

素材聚焦 联合国黑名单

据英国《金融时报》报道,2018年2月以来,KAIST一直在进行四项实验,分别是:基于人工智能的指挥和决策系统、水下无人机导航算法、基于AI的智能飞行器训练系统、基于AI的对象跟踪和识别技术。就学术界来说,这些实验看上去很正常。但不正常的地方在于,KAIST进行的研究是与韩国军工企业“韩华Systems”合作的,而韩华Systems的母公司韩华集团(Hanwhua)因为制造集束弹药已被联合国列入黑名单。提出抵制的这50多位学者担心,KAIST研发自主武器将会加速AI军备竞赛,导致更大规模的战争加速到来。不过,KAIST总裁Sung-Chul Shin表示:“KAIST没有任何意图参与开发致命的自主武器系统和杀手机器人。作为一个学术机构,我们非常重视人权和道德标准。”

素材拓展 自主武器

自主武器并不等于智能武器,也不等于自动化武器。后两者现在已经存在,比如自动瞄准装置、导弹定位系统、无人机等。但无论是哪种武器,其最终决定权都在人类手中。而自主武器,属于强人工智能范围,它把武器是否对人类进行毁灭性打击行为的决策权交给机器,这无疑是十分危险的做法。以人工智能为例,当前已经出现过一些类似的“失控”事件,涉及种族歧视、性别歧视等。比如微软的聊天机器人Tay曾在Twitter上发表涉及种族歧视的言论,导致其上线一天就被迫关闭。总之,禁止自主武器的开发,并不是要妨碍人工智能技术的发展,也不妨碍其被正常用于军事领域,其中的关键就在于,人类是否拥有控制权。

【考场仿真试题】请根据以上材料,写一则150字左右的微评论。

【范文示例】科学进步的意义,应是给人类带来生活的便利。研制“杀人机器人”,非但不能给人们创造出更安全舒适的生活环境,反而有可能给人类带来毁灭性的打击,这样的“科学”于世界何益呢?在世界新形势下,我们每个人、每个地区都应树立人类命运共同体意识,不能自掘坟墓,要合理发展,争取共赢!

其他適用话题 人工智能;社会秩序;人类未来

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/xueshu/218343.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号