分类筛选
分类筛选:

关于社会公平论文范文资料 与大数据如何妨害社会公平有关论文参考文献

版权:原创标记原创 主题:社会公平范文 科目:发表论文 2024-02-29

《大数据如何妨害社会公平》:这是一篇与社会公平论文范文相关的免费优秀学术论文范文资料,为你的论文写作提供参考。

大数据时代已经来临.大数据技术在给人类创造了诸多便捷的同时,也引发了新的*危机.迄今为止,对这一*危机的讨论主要是从“自由”角度切入的.不少论者担心,大数据技术会导致未来社会不再具有不受监控的私人空间,传统意义上的私人领域和个人自由不复存在.

一个较少为人注意的方面是,大数据技术也会对“公平”造成威胁.确切地说,大数据技术所强化的“数据中心主义”的政治技术治理,将会严重地妨害社会公平.美国政治学家尤班克斯(Virginia Eubanks)的《自动化不平等:高科技工具如何记录、管治和惩罚穷人》(Automating Inequality:How High-Tech Tools Profile,Police,and Punish the Poor)一书,就是通过对美国社会福利数据系统的案例分析,揭示它如何剥夺了本应属于贫困阶层的社会福利和发展机遇.

尤班克斯分析的第一个案例,是印第安纳州在2007年耗资11.6亿美元建立的申请领取社会福利的自动化登记系统.在此之前,印第安纳州的穷人在申请领取社会福利时,需要填写相关表格,由社工人员审核其是否具备领取福利的资格.

新的自动化系统简化了流程,让机器取代了大量此前由人负责的工作,理论上这让领取社会福利变得快捷.但事实上,这套系统在使用3年之后,因为出现大量错误而停用.在这些错误中间,只有极少数是让那些不符合条件的人通过审核领取了社会福利,绝大多数错误是导致本应获取社会福利的人未能通过审核.

珀杜(Sheila Perdue)是一位身患耳聋、肺气肿和躁郁症的印第安纳州居民.2007年冬天,她收到一封政府部门的来信,要求她必须参与一个电话采访,以便在新系统中重新登记以领取福利.《自动化不平等:高科技工具如何记录、管治和惩罚穷人》作者:[美] 弗吉尼亚·尤班克斯(Virginia Eubanks)出版社:St. Martin’s Press出版时间:2018年1月定价:26.99美元弗吉尼亚·尤班克斯是美国纽约州立大学奥尔巴尼分校政治学副教授,专注研究社区技术和经济正义.

按照以往的惯例,珀杜可以找当地的社工人员解释自己由于耳聋不能参与电话采访,由社工人员负责审核其资格.但是新的自动化系统排除了这种做法,登记者如果有问题,需要自己打电话到州政府的福利部门解释清楚,电话留言可以被系统存档.珀杜申请面对面的资格审核,但是被拒绝.她备齐了所有文件,前往附近的救助中心.那里的社工人员要她在网上填写相关表格,不熟悉互联网操作的珀杜请求帮助,但是社工人员表示此类表格必须由本人填写.珀杜尽最大努力完成了申请程序.几周以后,她被告知自己未能在新系统中重新登记,理由是在资格审核中“不合作”.

类似的例子不胜枚举.从2007年到2010年,有近100万件福利申请被系统拒绝,主要理由就是申请者“不合作”.

2010年,在民意的强烈反对下,印第安纳州政府被迫关闭该系统,并向法庭起诉,要求设计该系统的电脑业巨头IBM赔偿州政府4.37亿美元,IBM反诉印第安纳州政府赔偿1亿美元.法官裁定州政府和IBM双方都无权胜诉,都应该受到谴责,真正的输家是印第安纳州的纳税人.对此,尤班克斯评论说,最大的输家与其说是泛指的纳税人,毋宁说是那些本应接受援助的穷人.

第二个例子发生在洛杉矶.在这座全球娱乐之都,有大量无家可归的流浪人口常年聚集,2017年其数目超过了5.5万.洛杉矶市政府制定了为这些无家可归者提供住房的福利计划,通过积分系统决定哪些人可以最先获得住房.然而,该系统将“*进拘留所”算成“有住房”,但凡进过拘留所的人员都会被标示为最近有过住房,从而积分排名靠后.事实上,无家可归者越是绝望,就越是有可能故意犯点事情,以求在拘留所里暂时觅得庇身之所.洛杉矶市的这套积分系统,其实是把那些最需要住房的人拒之门外.

另一方面,洛杉矶市政府在数据收集阶段,让社工人员对无家可归者进行访谈,鼓励他们坦白自己的经历.但是,执法部门可以联网查看这些访谈记录,一旦他们承认自己有过轻微的违法行为—例如在禁止夜晚出没的地方睡觉,在人行道上席地而坐,在禁止乞讨的街区乞讨等等—都有可能导致被捕.

第三个例子发生在宾夕法尼亚州的阿勒格尼(Allegheny)郡,这是宾州第二大城市匹兹堡的所在地.该郡出于防止父母*和忽视儿童的目的,将该郡的社会福利、儿童保护和犯罪记录的系统数据予以联网,并由专家团队设计了一个统计模型,使用多达130个指标来预测儿童是否面临被父母*或忽视的高风 险.

尤班克斯指出,几乎所有这些指标都和贫穷有关.例如,一个在贫穷的单亲家庭长大的孩子,往往也会独处时间比较长,住在比较不安全的社区,住房比较破旧凌乱.系统如此设定指标,本身就是对穷人的歧视.

该系统的另一个问题是仅仅使用公立机构社工人员的记录来判断儿童和父母的关系,中产和富裕家庭的保姆、医生等等则无需提供证词.换言之,中产或富裕家庭即使出现*或忽视儿童的情况,只要是由私人服务机构或医院处理相关事宜,就不会被系统记录在案;而贫穷家庭的父母则易于遭受社工人员主观偏见的不公正对待.

尤班克斯举例说,有一对很爱孩子的父母,因为未能及时缴纳女儿打疫苗的费用,即被列为怀疑对象而遭到调查.他们很担心有一天州政府的儿童福利局会终止他们的抚养权,将孩子安置到政府安排的监护机构或寄养家庭.

自动化数据治理会在很大程度上减少公众对穷人的同情心.

那么,为何自动化的数据系统会如此歧视和排斥穷人呢?尤班克斯指出,在历史上,美国社会一直有歧视穷人的传统,穷人被主流社会视为能力低下、游手好闲、易于犯罪,对社会有害无益.1820年代,有政客提议美国每个郡都至少要有一座“穷人屋”(poorhouse),把穷人安置在其中,从事近乎苦役的工作,与主流社会相隔绝.尽管这个提议由于开销太大而未能全面推行,只在部分地区试点后便不了了之,但是它所体现的思路一直是美国资本主义的基本信条.

1960年代风起云涌的民权运动在表面上改变了美国的主流文化.民权运动的一个后果就是将穷人的社会福利视为基本人权,每一个穷人都有权通过正当程序获取应得的社会福利.穷人的处境有了很大改善.然而,美国社会有很强大的力量反对社会福利的扩张.在新的时代背景下,他们无法直接反对将社会福利视为穷人的人权,于是便通过数据技术来达成目标.从1980年*始,美国社会福利系统逐渐走向了电脑技术主导的自动化数据管理,政客们宣称新技术可以减少舞弊,提高效率,但事实是社会福利的覆盖面自此开始日趋缩减.1973年,有近一半生活在贫困线下的美国家庭可以领取“未成年儿童家庭援助”(Aid to Families with Dependent Children),今天这个数字只有10%.虽然存在政策变迁的因素,但是这种变化主要是通过数据化的政治技术治理悄然无息地实现的.

尤班克斯指出,自动化数据治理所导致的对穷人的歧视和排斥,远比19世纪曾经一度在美国部分地区试点的“穷人屋”更为可怕.“穷人屋”固然将穷人排斥在主流社会之外,但同时也使得穷人们聚集和团结在一起,可以提出集体诉求来主张自己的权利.而自动化数据治理所排斥的穷人是“碎片化”的,他们难以彼此联系,难以通过集体的力量来争取权利.

另一方面,自动化数据治理会在很大程度上减少公众对穷人的同情心.在历史上,来自相对富裕的公众的同情心是推动穷人获得权利和社会福利的关键动力.那些关于穷人受到官僚系统不公正对待的故事总是能够打动人心,激起强烈的反应.然而,自动化数据治理却使得相关机构和人员可以轻易卸责,让公众相信电脑系统所歧视和排斥的穷人真的就是咎由自取,不值得同情.

这正如清朝学者戴震在《孟子字义疏证》中的感叹:“人死于法,犹有怜之者,死于理者,其谁怜之!”自动化数据治理的最大危害就在于它制造出了一个虚幻的“理”,用貌似中立的技术掩盖和助长了实质上的不公 平.

总而言之,大数据技术所引发的*危机,不仅在于它会给私人领域带来前所未有的侵犯,而且在于它有可能對公共社会造成严重的威胁.这一危机正在成为人类面临的重大考验.

社会公平论文参考资料:

法制和社会杂志社

社会科学家杂志

教育公平论文

社会语言学论文

和谐社会论文

社会心理学论文

结论:大数据如何妨害社会公平为关于本文可作为社会公平方面的大学硕士与本科毕业论文社会有公平吗论文开题报告范文和职称论文论文写作参考文献下载。

和你相关的