分类筛选
分类筛选:

关于人工智能论文范文资料 与科技界名人联名倡议禁止人工智能武器有关论文参考文献

版权:原创标记原创 主题:人工智能范文 科目:职称论文 2024-01-15

《科技界名人联名倡议禁止人工智能武器》:关于免费人工智能论文范文在这里免费下载与阅读,为您的人工智能相关论文写作提供资料。

机器人大战在《终结者》等科幻小说中经常出现,但实际上,这种危险发生的概率或许远远高于我们的想象,一些科技和人工智能领域的领导者已经开始尝试阻止这种事情的发生.据媒体2015年7月28日报道,著名天体物理学家史蒂芬·霍金、特斯拉创始人伊隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等欧美上百位科技界知名人士联合签署了一封公开信,呼吁禁止人工智能武器.

这封公开信写道:“倘若任何军事力量推进人工智能武器的研发,全球军备竞赛便不可避免.”这些专家警告称,继发明和之后,能够在没有人类干预下独立识别并攻击目标的武器系统的发展将带来“第三次战争革命”,禁止人工智能武器与禁止化学和生物武器同等重要.

多维解读

“杀人机器人”,危险不科幻

如今,“杀人机器人”的发展已然让人担忧.根据联合国的一份报告,已经研制出具有战斗能力的全自动或半自动式机器人的有美国、英国、德国、以色列、韩国和日本等国家.例如美国的“宙斯盾”级巡洋舰装备的“密集阵”系统,能自动探测、跟踪并应对反舰导弹和飞机之类的空中威胁;英国的“塔拉尼斯”无人战机能对敌人进行自动搜索、识别和定位,还能进行自卫,防范敌机袭扰;韩国三星泰科株式会社研制的监视安保机器人能通过自动模式的红外传感器来探测目标.

对“杀人机器人”的担忧还在于*方面.生态进展的一个常识是,一个物种不可能在与比自己高一级的竞争者的对决中存活下来.到目前为止,现代人在地球上还从来没有面对过比自己更高一级的生物.目前在全世界的各个机器人实验室里,科学家们充满地展开了一场竞赛,不断给予机器人更多的人工智能.总有一天,机器人技术的高精尖程度能使它们拥有组织起来和繁衍下去的能力,到那时机器人抛弃人类将不再是科幻.当年,当大科学家爱因斯坦向美国政府建议发展时,满怀着对科学的热爱.可是,当他听闻日本广岛遭受袭击时,却喃喃自语道:“我是有罪的.”鉴往知来,对“杀人机器人”的未来,人类的确要有觉悟,以免在未来某个时候,为有罪而哀叹.

智能机器人≠人类终结者

霍金等人担忧的核心逻辑在于:一旦真正的人工智能,即人类思想的全数字化版本诞生,它将开始自主迅速发展,并以越来越快的速度重新设计自己等受限于缓慢生物进化的人类无法与之竞争,最终将被其取代.但果真如此吗?事实上,人工智能确实看似正在日新月异地发展,以IBM旗下沃森医生为代表的智能机器人就能诊断癌症、辨别人类情绪,甚至流畅操作游戏.但是,智能机器人和人类之间的关系似乎更多的还是助手和主人的关系.

正如神经科学家加里·马库斯所解释的那样:“我们知道神经细胞的集成与思想元素之间肯定存在某种法则关系,但是我们目前无法破译那些法则.”那么,如何才能开发出具备人类大脑全部功能的实体,进而使人工智能超越人类的大脑?实际上,人类对于人工智能的开发程度,还远远没达到值得人类担忧的程度.跟人类在生物学领域取得的成就相比,人工智能的研究才刚刚起步.从某种意义上讲,霍金等人其实是在扼杀尚在摇篮之中的人工智能.如果说人工智能是人类未来面对的挑战,那么,当下人类面对的挑战似乎已经足够多了,包括全球性经济危机、恐怖主义抬头、层出不穷的新型疾病等.既然如此,我们何必坐视正在发生的挑战不去积极应对,而过度担忧遥远未来的所谓挑战呢?

人工智能论文参考资料:

人工智能论文参考文献

人工智能的论文

结论:科技界名人联名倡议禁止人工智能武器为关于人工智能方面的论文题目、论文提纲、人工智能论文开题报告、文献综述、参考文献的相关大学硕士和本科毕业论文。

和你相关的