分类筛选
分类筛选:

关于这个杀手论文范文资料 与这个杀手非常冷有关论文参考文献

版权:原创标记原创 主题:这个杀手范文 科目:毕业论文 2024-03-18

《这个杀手非常冷》:本论文为您写这个杀手毕业论文范文和职称论文提供相关论文参考文献,可免费下载。

这类自主武器可以在人工智能的帮助下自行学习,并在没有人为干预的情况下摧毁目标

在科幻电影里,机器人杀手是个老掉牙的题材.人们已经不再像几十年前那样,为这种冷酷的机器尖叫.在目睹了工业机器人、护理机器人等类似产品后,对机器人能做什么,人们已经有了更全面的认识.

但是,杀手机器人和那些提供便利服务的机器终究还是不同的,因为它涉及*问题.60多年前,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)就提出了著名的“机器人三定律”,首要一条就是“机器人不得伤害人类,或坐视人类受到伤害”.

随着技术的进步,*屏障似乎正在被打破,冷血的机器人杀手逐渐从荧屏中走出来.为了阻止这种情况的发生,一场人类自我保护运动逐渐兴起.

迫在眉睫的问题

科幻很远,现实很近.机器人杀手的出现已经是一个迫在眉睫的问题.

近期超过70个国家的军事专家、科学家、非政府组织在日内瓦参加了联合国会议,就如何对待具有争议的“杀手机器人”进行讨论.为期一周的会议并未得出实质性的结论.虽然大多数与会者表示支持进行立法管制,但是一小部分人表示反对.这种分歧助推了一种现实:杀手机器人正向我们走来.

杀手机器人走来的脚步声会让人感到不寒而栗.当然,在联合国《特定常规武器公约》框架下,这种杀手机器人有另外一个名字:自主武器.这类自主武器可以在人工智能的帮助下自行学习,并在没有人为干预的情况下摧毁目标.

随着科技的发展,机器可以用人工神经网络处理所积攒的经验,类似于人类大脑,不断对情况进行自主学习和判断.而武器行业也积极利用最先进的技术生产出更有效率、速度更快的武器.拥有这种能力的武器,很容易让人想起电影《终极者》里的杀手机器人.

红十字国际委员会将自主武器定义为:“可以根据自身所处的环境中不断变化的情况,随时学习或调整运转的武器.真正的自主武器能够在无人干预或操控的情况下搜索、识别并使用致命武力攻击目标.”

虽然全自主武器和杀人机器人到目前为止还没有被使用,但在这一领域存在国际公约的灰色区域.在各国讨论关于自主武器的生产和使用是否必须受国际公约管制时,尽管各国代表原则上同意,自主武器也必须受人类控制,并符合国际法,但美国和一些拥有大型军备的国家提出明确的反对意见,不希望禁止这类武器,这些国家希望借此保证其在军事上的优势地位.

美国国防部是最支持机器人研究的机构之一,2013年美国智库海军研究办公室曾向塔夫斯大学、布朗大学、伦斯勒理工学院、乔治城大学以及耶鲁大学的研究人员发放750万美元补助,以研究如何教授自动机器人分辨对错.

目前美国已经有不少具有部分自主功能的武器.军用机器人要上战场,需要适应战场上的现实,辅助战士执行任务.例如导弹已经可以自行识别、选择和攻击目标,无人机可以组成蜂群网络并独立执行某些任务,阿富汗和叙利亚已成为美军这些武器的试验场.

*的交锋

在对杀手机器人限制和列装的时间竞赛中,即使是乐观者目前也认为后者会是胜利的一方.毕竟在人们感受到切肤之痛前,很难对收割生命的武器产生感性认识,一如历史上先是出现了大规模杀伤性武器,并产生巨大的破坏后,人们才开始痛定思痛制定限制大规模杀伤性武器的公约.

机器人看似有益无害,目前在工厂里已经有机器人和人一起上班,无人驾驶汽车也已经上路测试,无人机已开始行进送货服务,但当这些机器成为武器,踏上战场的那一刻,不但所有的温情脉脉都会被撕去,连战争的*都会被改写.尽管责任要由握刀的人来承担,但和刀终究要靠人挥动不同,自主武器可以自己选择攻击的时机,这无疑会极大削弱人的自我防护能力.

自主武器在接到攻击指令后,不再需要人的开火指挥,攻击的时机也由算法作出最优选择.它们在数分钟、数天乃至数周长的时间里自行跟踪目标,然后选择所谓的最佳时间将目标消灭.如此一来,决定人生死瞬间的不再是作为对手的人,而是一台冷冰冰的机器.

此外,自主武器更难区分攻击目标.目前国际人道法重要的一条是,在攻击时要清楚区分作战者和平民,尽量避免攻击平民和民用设施.机器不懂国际法,也无法依据道德而行动,难以区分攻击目标.因此国际法专家们要求,人类必须始终拥有对攻击的最后控制权.

杀伤性地雷可以被看作是一种最初级的自动运行武器,因为当其埋下后,何时爆炸就不由埋雷者控制了,而取决于应用的情景.然而就在地雷被口诛笔伐多年后,很多几十年前布下的地雷.如今依然在作恶,每年造成1.5万到2万人丧生.

一旦杀手机器人成为现实,其危险要比地雷大得多.因开展反对地雷的运动而获得诺贝尔和平奖的乔迪·威廉姆斯(Jody Williams)是“阻止杀手机器人运动”的发言人,他表示自主武器比更可怕,“如果一些人认为把人类的生杀大权交给一台机器是可以的,人性又何以处之?”

正是基于这种可怕的*冲突前景,在2013年,联合国就开始呼吁暂缓研发能自主运作的战争机器人.遗憾的是,*的交锋目前并未延迟研发的脚步,而阻止其到来的机会却在指缝中溜走.

谁来阻击

人类被机器人大军屠杀是电影中的旧梗,之所以仍会出现常拍常新的版本,是因为人们从心底有挥之不去的恐惧和担忧.

然而,军火商没有被这种担忧所吓阻,他们正贪婪地将手伸向数据和算法.直到杀手机器人破壳而出.他们对此振振有词,认为当机器人取代人走上沙场,会减少人的牺牲.他们避而不谈的是另一种逻辑,即研发这种机器人的一项重大危险是一各国会更轻易发动战争,因为人与人越来越冷漠.也更容易下达杀人指令.

正是由于感受到杀手机器人成为现实的威胁,自2014年开始各方在联合国日内瓦总部举行对话,讨论对杀手机器人进行限制,整个对话在特定常规武器公约的框架下进行.这个非正式对话在2017年演变为正式的谈判,超过70个国家以及更多的科学家、非政府组织参与.但各方立场相距甚远,整个谈判进展迟缓.

基础研究领域一直没有放弃抵制杀手机器人的出现.物理学家斯蒂芬·霍金在世时,就曾在2015年和上千名人工智能领域的专家一道,发表了一封呼吁在世界范围内禁止杀手机器人的公开信.

科学家们警告,越过这一界限将启动一场新的全球军备竞赛.信中称,继发明和之后.能够在没有人类干预下独立识别并攻击目标的武器系统的发展,将带来“第三次战争革命”.

两年后,不少人工智能企業也加入了反对的行列.特斯拉创始人埃隆·马斯克.以及谷歌应用人工智能负责人穆斯塔法·苏莱曼等116家机器人和人工智能企业的创始人签署了一封公开信.这封信说,致命自主武器会让“武装冲突的规模超过以往任何时候,时间跨度快到人类无法理解”.

这个杀手论文参考资料:

结论:这个杀手非常冷为适合这个杀手论文写作的大学硕士及相关本科毕业论文,相关这个杀手开题报告范文和学术职称论文参考文献下载。

和你相关的