导航菜单
首页 > 管理学论文 > 情报论文 » 正文

大数据算法决策的问责与对策研究

迪莉娅

摘 要:[目的/意义]随着人机社会的到来,大数据算法决策的应用将会越来越普遍。但是大数据算法决策与普通的人工决策有很大的差异,其问责将是政府和企业未来面临的重要难题。[方法/过程]本文探讨了大数据算法决策问责的含义、重要性和缘起。[结果/结论]在分析了其难点的基础上,从问责主体、机制、救济措施3个方面提出了完善大数据算法决策问责的对策。

关键词:大数据算法决策;问责

Abstract:[Purpose/Significance]With the advent of man-machine society,decision-making of big data algorithm will become a more and more common thing.But the decision-making of big data algorithm is quite different from that of ordinary manual decision-making.Its accountability will be an important problem for the governments and enterprises in the future.[Method/Process]This paper discussed the meaning,importance and origin of the decision making accountability of big data algorithm.[Results/Conclusion]The paper proposed the accountability countermeasures from the perspective of accountability subject and mechanism as well as relief measures based on the analysis of the diffICUlties of the decision-making accountability of big data algorithm.

Key words:decision-making of big data algorithm;accountability;countermeasure

2017年,国务院发布了《新一代人工智能发展规划》,对人工智能的伦理问题研究提出了明确的要求,要求展开跨学科的探索,加强前瞻性的预防和引导,以降低其带来的风险,保证人工智能的安全、可靠和可控的发展[1]。人工智能的核心是算法问题,算法的不同产生的影响和结果将会千差万别。算法可以称之为当今计算机、手机、物联网的大脑。随着大数据的发展,海量数据集的生成,单靠人类自己的力量去分析和利用数据做出决策已经成为不可能。具体而言,算法(Algorithm)是基于特定的计算模型,旨在解决某信息处理问题而设计的一系列指令序列。简而言之,算法就是计算机代码的运算。

很多政府部门和企业采用大数据的技术和方法在公共政策的制定和市场运营中依靠算法智能决策,例如:在教育、医疗、司法、保险、金融领域进行信用评分评级、趋向分析判定、内容推介和量化评价等。因此,随着大数据的集聚,越来越多的政府部门和企业将算法作为数据转化为知识及做出决策的工具,这就为算法主宰决策提供了无限增长的可能性,而这种增长带来的影响是深远的。一方面,随着人工智能、机器学习、深度学习的发展,很多决策依据一定的算法可以自动做出,代替了传统的人工决策,提高了决策的效率;另一方面,当算法成为越来越多的组织机构依赖决策的工具,那么算法不仅将重塑个人的生活,而且在大规模的社会、经济和政治进程中将发挥重要的作用,即算法它不再仅仅被看作是代码的运算,而是代表了组织在各个领域中对资源的分配、舆论的导向、社会的公平等方面起到重要的指向性作用。虽然计算机常被视为客观理性的机器,但算法是由人设计出来的,这本身就有可能具有偏见性和错误性。因此,大数据算法决策的问责成为政府和企业未来面临的难题,也成为学者们研究的重要课题。

1 文献综述

关于大数据算法问责的研究,国外有关的组织机构和学者已经从其必要性、算法决策透明化与问责、算法决策问责与法律、算法决策责任分配等方面展开了研究。

1)大数据算法决策问责的必要性。万维网基金会认为,算法决策之所以备受质疑是因为其黑箱问题,这往往将公民和消费者置于很高的风险当中,为了减少算法决策造成的伤害和歧视,需要加强大数据算法决策的问责,解决技术、伦理、知识和政策方面的鸿沟[2]。2)大数据算法决策透明化与问责。学者Paul B de Laat指出,算法的完全透明并不有助于其问责,因为透明有可能会侵犯个人的隐私,同时也会使企业存在失去竞争力的风险。因此,他认为算法可以向监督机构公开,但是向大众透明化并没有可取之处[3]。3)大数据算法决策问责的法律问题。Anton Vedder等认为,由于大数据环境的算法,只有将算法不仅仅看作數据处理的活动中,算法的问责才有可能得到重视。目前,算法的影响已经远远超过了数据保护法的范畴。在欧盟的《通用数据保护法》序言中指出,考虑到算法对自然人权利和自由的处理可能造成的风险,需要调整控制者和加工者的义务。但是该法的主体部分并没有对“义务的规制”进行详细的说明,影响了对算法问责的施行[4]。4)大数据算法决策责任的分配问题。Maja Brkan认为,大数据算法决策所产生的不良后果应该由算法的设计者,即开发商和算法的数据提供者,即算法的采纳者之间进行责任分配[5]。

目前,我国学者关于大数据算法决策的问题研究,更多的是从行业伦理规制的角度进行探讨,主要包括:1)算法在新闻领域应用中所产生的伦理问题。学者王亚妮认为,算法时代的来临极大地提高了信息分发的效率,其中的推荐算法在一定程度上减轻了信息选择的负担,但不同的算法都有其伦理风险,将会带来信息茧房、信息选择权的让渡以及主流价值导向的缺失等问题[6]。2)算法在无人驾驶领域应用中所产生的伦理问题。学者王珀认为,无人驾驶事故应急算法中,为了防止“囚徒困境”的伦理风险,认为不宜强制采用功利主义的算法[7]。3)算法在人工智能领域应用中所产生的伦理问题。学者魏强、陆平认为,新一代人工智能具有高度的自适应性,给人类带来福利的同时,也产生了隐私、安全、透明性等伦理风险[8]。

从整体来看,国外学者对于大数据算法问责已经有了较为深入的研究,虽然大数据算法伦理会涉及到责任问题,但是我国学者更多的还是从道德层面进行阐述和分析,而关于对其专门的“问责”问题研究还处于起始阶段。

2 大数据算法决策问责的含义

随着算法在各个领域的应用,算法的透明度受到了普遍关注,并由此引发了算法问责的问题。因为算法系统的自主性很强,它根据获取的数据,不断进化和学习,能够形成一套自己的体系。这种结构是开发设计者预料之外的,包括“黑箱”的存在,很难追溯到错误的根源,这就可能会给当前的伦理和秩序带来关于归责问题的挑战:到底是算法的失误,还是工作人员的错误判断?在不久的将来,责任界定、行為监管的判定可能变得十分困难,从而导致责任鸿沟问题的产生[9]。

因此,很多学者就什么是算法决策问责展开了讨论。学者Neyland D认为,问责意味着算法决策不仅需要证明其合理性而且还需承担减轻任何由其造成的负面社会影响和潜在伤害的义务[10]。Robyn Caplan认为,算法决策问责不仅指算法对社会产生影响的责任分配,如果造成了伤害,还包括相应的救治机制。虽然以上两位学者强调了问责的内容,但是问责的主体并没有阐明。美国公共政策理事会对于算法决策问责的主体做出了明确的规定,指出应用算法的机构即使对算法的结果不能做出合理的解释,但是也应该对采用算法做出的决策负责[11]。而本文认为,算法决策问责是指采纳和应用算法决策的机构在应用算法决策过程中对于社会和个人产生的不良影响所应承担的责任以及采取相应救济措施的过程。

3 大数据算法决策问责的重要性

人工智能的本质就是一种算法模型,在强大的计算能力支持下,计算机可以借助算法不断地从大数据中进行分析和学习,通过反复试错和改错来吸取经验,实现自身智能化程度的不断提高,从而帮助人类作出相应的决策[9]。未来为了促进人机社会的和谐发展,算法问责的研究和确立具有重要的意义。

1)有利于促进大数据算法决策过程的透明度。为了避免智能化决策的“黑箱”,促进大数据算法决策的数据来源、质量及算法模型的设计以及运行过程的透明度,是保证算法决策合法、公平、正义的重要意义所在,为大数据决策提供重要保障。

2)有利于促进算法决策模型的科学性。大数据算法决策模型的设计是决策者思想、理念的最好体现。通过建立算法决策问责机制,促进和指导大数据决策模型的设计必须符合客观规律,具有客观性、系统性和逻辑性,减少在算法模型设计中偏见、错误以及歧视性伤害的风险,在决策的逻辑模型、程序模型、数据处理模型和自定义模型的设计和应用当中符合公平和正义的原则。

3)有利于强化算法决策结果的责任性。决策失误的问责并不会因为是智能决策而得到规避。无论是政府或者企业,由于智能决策而造成的伤害或者歧视性的后果,作为决策者同样要承担问责。算法问责机制的构建有助于极大地提高大数据算法决策的责任性,并对决策的失误或者产生的不良后果进行追溯和纠正,提高大数据算法决策的公开、公平和正义的价值导向。

4 大数据算法决策问责的缘起

有些推荐算法决策的应用并不会产生实质的伤害性后果,但是如果将算法应用在犯罪评估、信用贷款、雇佣评估等关乎个人利益的场合,由于其并不是仅仅针对某一个人,而是采用规模化运作的方式,可能会影响具有类似情况的一群人或者某一类人的利益,所以它的影响范围会很大[12]。有人称基于数据的算法是客观和中立的,其实只是一个美丽的误会而已。早期的算法决策的数据来源和算法决策的复杂度不高,且应用领域并不广泛,对于算法的问责没有受到很高的重视。但是,随着大数据时代的来临,面临纷繁复杂的数据,很多企业和政府为了减少成本和提高效率,在很多领域采纳算法决策,对于算法所引发的不公平和歧视性的现象也得到了更多的关注。算法所产生的偏见和歧视主要来自两个方面:1)算法主体价值观歧视。这种算法歧视主要来自算法设计者自身存在偏见或者歧视,将其融入到算法中所产生的歧视性后果。2)算法系统自然获得的歧视。这种歧视一方面来自算法采用的客观数据本身就具有歧视性,另外一方面,也体现在算法在演化过程中自身获得所产生的歧视。具体表现在:

第一,嫌贫爱富性算法。算法一般经过排序、分类、关联和过滤几个步骤。排序是将排名的标准嵌入到算法中进行优先等级的划分。排序本身就是一个价值理念实现的过程。虽然大数据利用海量数据实现精细化的决策,但是也带来了另外的悖论现象,那就是通过排序和分类,虽然有助于实现用户精细化的画像,但导致穷人和富人的标签更加明显,如果被数据打上了“穷人”的标签,那么获得贷款、信用、教育等的机会就会受到很大的影响。有证据显示,在美国的金融服务领域,穷人通常受到的服务比较劣质,广告商往往将高息贷款的服务投向穷人[13]。这种算法导致“嫌贫爱富”的现象,随着自动化决策的广泛使用,有可能会加剧贫富差距和社会不公正现象的发生。

第二,性别歧视性算法。虽然信息技术秉持“技术中立”的原则,但是在系统运行中,也无法保证其不会自动修改程序,而出现歧视性的结果。据报道,亚马逊曾经开发的招聘工具具有性别歧视的现象,在进行简历的遴选时,对于简历上出现“女性”这个词就会打低分,使得女性在求职中,获得面试的机会大幅度的减少[14]。即使后来亚马逊修改了程序,也无法保证系统不会出现歧视性的结果。

第三,种族歧视和年龄歧视性算法。有数据显示,计算机对于浅色人种的误判率只有1%,对深色人种的误判率高达35%[15]。而且依据美国非政府组织机构ProPublica调查显示,Facebook在投放与购房相关的广告,排除了非洲裔美国人和犹太人。同样,Uber和Verizon Wireless这些非常有名的公司也是按照年龄和性别的不同而投放不同的招聘广告[16]。

5 大数据算法决策问责的难点

大数据算法决策有助于为民众提供实时、智能、便捷的服务,但是,由于决策主体、客体以及过程的不透明和难以解释性等原因导致决策问责的难度大幅度增加。

5.1 大数据算法决策问责主体的复杂性

无论是公共领域还是私营领域,应用大数据作决策,都会涉及到算法系统的产生过程。如果算法系统是按照组织机构的目标以及程序员依据所完成的目标设计出的算法系统,那么系统做出的决策出现不公平和歧视性的伤害,有可能是由于算法设计者的能力或者其偏见导致的错误,这种错误很容易进行查询。但是,很多大数据决策系统采用的是机器学习系统,随着系统的不断进化,这些人工智能系统就会与环境交互,经过“观察”和“思考”,具备了一定的自主学习能力,而这种能力的获得,与过去植入指令式“代码”的决策非常不同,虽然有利于人机共同创造知识,但是这种产生知识的原理、过程成为了“黑箱”,一旦决策失误,问责的主体反而难以确定。

5.2 大数据算法决策过程的透明性和可解释性难以实现

第一,算法过程的透明度是指影响算法决策的因素对使用、管理和受使用算法决策系统影响的人具备可知、可见的程度。透明度是算法决策问责的重要内容。算法决策的透明有助于加强相关利益者和公众的监督,同时也是取得公众信任的重要前提条件。因此,无论是欧盟的《通用数据保护法》还是美国即将出台的《算法问责法案》都把透明性作为问责的重要要素。虽然算法的透明度成为普遍的诉求,但是算法错误的难以监控和纠正就会导致其的不可解释性。因此,在自动算法决策中,算法的透明性成为重要的挑战[17]。但是,如果公开有关算法,很多企业和机构认为:①算法有可能是企业的机密,公开有关算法虽然有助于公众监督,但是会影响企业或者组织机构的发展。②公开算法有可能会涉及大量的个人隐私。如果说算法是“大脑”,那么数据是养料。而很多算法系统的运行离不开数据,数据中又包含了大量的个人隐私数据,因此,算法的透明和公开必然会涉及相关隐私的管理和规定。③有些算法本身就是“黑箱”,就是公开了,对于算法运行的机理也难以清楚地解释。

收藏此文 赞一个 ( ) 打赏本站

如果本文对您有所帮助请打赏本站

  • 打赏方法如下:
  • 支付宝打赏
    支付宝扫描打赏
    微信打赏
    微信扫描打赏
留言与评论(共有 0 条评论)
   
验证码:
二维码