导航菜单
首页 > 法学论文 > 法律论文 » 正文

人工智能算法规制的原理与方法

孙莹

摘要:人工智能算法推荐的运行机制决定了算法的非技术中立性和价值取向性。人工智能算法本身蕴含强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间权力失衡。人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在算法权力的技术权力表象之下还潜藏着资本的权力,并使国家主权面临挑战,冲击全球治理体系。因此,应当构建政府主导并掌握核心算法的大数据系统,强化伦理约束组织的建设,在立法上压实人工智能算法开发者、控制者的主体责任。

关键词:人工智能算法;非技术中立性;算法权力;主体责任

中图分类号:DF0-05 文献标志码:A

DOI:10.3969/j.issn.1008-4355.2020.01.08

引言

从2018年开始,作为人工智能核心要素的“算法”概念开始兴起,并逐渐取代空泛的“人工智能”概念,成为法学界研究人工智能的聚焦点。人工智能算法,即通过计算机来模拟人的思维和智能,在一定的输入前提之下,按照设定程序运行,由计算机来完成特定功能的输出,解决特定问题的方法的准确描述或清晰的有限指令。它可以增强人在某些领域的决策能力,甚至在某些方面可以代替人作出决策。但其在为人类提供更加迅捷高效的决策依据的同时,也会潜在地对人类的视域、判断乃至选擇产生影响,进而不断改变资本与个人权利、国家权力的关系。人工智能算法的控制者凭借“算法黑箱”的数据技术壁垒,利用算法影响受众群体的社会偏好和政治偏好,并潜移默化地影响、操纵受众的行为模式。此外,对人工智能算法监管的缺位所导致的“信息茧房”、“算法歧视”等现象,日益成为新的社会治理难题,亟待立法规制。

一、人工智能算法的非技术中立性

随着以大数据应用为基础的算法推荐在电子商务领域的成熟运用。人工智能算法开始为法学界关注。互联网电商平台经过一段时间的经营,沉淀的用户数据早已是天文数字,结合其注册信息和浏览偏好,并据此描绘用户的个人特征乃至某类用户群体的社会特征画像,是其长久以来的深耕领域。互联网电商平台的巨头们也正基于此,开始分析用户最迫切的购买需要,这便是人工智能算法进入社会领域并开始兴起的最初时刻。人工智能算法也以此为起点,通过大数据支撑的算法分析和算法推荐,开始介入社交媒体平台等其他互联网空间,进而深度影响人类社会生活,并引发政治风险。

(一)人工智能算法推荐在社交媒体平台的广泛运用

随着人工智能算法运用技术的迭代,算法推荐开始从电商平台延伸到互联网社交媒体平台,并日益成为决定信息推送的根本性力量。人工智能算法通过此类网络平台积累了大量用户数据,人工智能算法控制者(很多情况下也是开发者)的价值观也因此深深嵌入据称中立的技术之下,并悄然影响着受众的观念、决断和行为模式。

通过不断的机器学习,算法在数据抓取、学习、推送方面相对人类已经取得巨大优势,并由此强化了对受众的影响。包括今日头条等平台媒体和微信等社交平台,都在积极运用人工智能算法增加用户黏性,并增强市场渗透率。不同于传统媒体时代的新闻人工筛选推送机制,也不同于社交网络时代的新闻社交过滤机制,大数据时代之下的人工智能算法推荐机制拥有更强的数据抓取能力和学习能力,使得信息推送的规模和效率成几何倍数增长。

传统的新闻人工筛选推送机制通过媒体编辑对新闻进行把关,体现的是媒体编辑的价值取向,在新闻内容的呈现上有着很强的价值偏好。媒体编辑通过热点问题、核心情况的归纳,引导舆论的争论焦点。在社交媒体兴起以后,个体获取信息的主要方式变革为社交过滤的方式。此类获取信息方式的弊端在于,不断扩大的社交网络当中发布、流传的信息鱼龙混杂,需要用户耗费精力加以甄别。

人工智能算法的出现颠覆性地改变了这一点。依托大数据技术的应用,人工智能算法依据用户的行为数据——如浏览内容、转发、评论等,以及身份数据进行深度的机器学习与算法分析,为每一个用户精准识别并推送其价值需求和相关偏好的信息,即“只有你关注的才是头条”。在此基础上,人工智能算法推荐依据不同的价值偏好和信息需求,将用户划分为多个交叉重叠的群体,并为其分别推送需要的信息,实现区别于朋友圈过滤的大数据过滤,使得用户更加自由的掌控信息的捕捉和接收。正如阿克塞尔·布伦斯(Axel Bruns)所认为的那样,原子式的用户在数据信息的场域划出了巨大的空间,传统的媒体已不再具有引导话题辩论的能力,真正起到决定性作用的是用户的偏好和抓取。随着大数据时代的到来,信息愈发根据人的价值和需求而自由流动,但是这样的“自由”,始终带有为人工智能算法支配的阴霾。

(二)算法推荐运行机制的非技术中立性

计算机和大数据学科理论认为,“算法”综合了逻辑与控制(algorithm as a sum of logic andcontrol),实际上就是一种编程,即为其设立一个为了解决某问题而自我推演的运行逻辑,并对其输入指令,在输入数据的不断精准“榫接”的步骤中,得出逻辑推演的结果。在这个意义上,人工智能算法的本质,实际上就是依照其自身逻辑展开一系列对用户和数据的抓取,通过其技术逻辑设定的方向导出某个结果。而不间断的机器学习则保证了该套匹配模式精准度的不断提升、完善。在此过程中,大数据技术的应用,则不断为人工智能算法的自我学习提供源源不断的“能量”。基于此,人工智能算法推荐在深度分析受众个人数据如浏览记录、停留时长、用户注册信息、评论转发等信息的基础上,为其精准推送其偏好的信息。

与传统的人工筛选推送信息的方式相比较,人工智能算法推荐实际上颠覆了整个行业的底层逻辑,推送信息的标准已经由信息的内容本身,转向“用户偏好的信息”,亦即用户决定信息。因此,信息的价值不再取决于其内容,而取决于用户的偏好。即在信息推送接收的逻辑链条之下,决定用户接收某类信息的不再是用户的主观意愿,而是人工智能算法的内部评判标准。对于某一类用户全体,人工智能算法在分析了主流的偏好需求、类型特征后,会通过建立推送模型的方式,将群体内的其他偏好交叉推送给群体成员。

事实上,人工智能算法推荐存在某种倾向的价值观,绝非一些“技术中立论”所宣称的那样,没有价值观的倾向。这种倾向性有的来自人工智能算法开发者输入的底层逻辑,更多的来自在底层逻辑的基础之上的算法本身逻辑自生自发的演绎。人工智能算法通过数据指令的不断输入和深度学习,其自我展开的逻辑必然会建构出一整套运行的系统,有其自身的机制。同时由于算法受众在该机制中的不断反馈,使得算法机制本身糅合了算法逻辑和人的价值观。因此,杂糅着社会价值观的人工智能算法又强化了自身的价值倾向,并在各领域得到不断展现。这也使得互联网平台的用户均处于人工智能算法价值观的影响之下。人的行为模式、思想观念也在悄然发生改变,并愈发接近算法暗含的价值观。

(三)算法的非技术中立性易引发政治风险

随着人工智能算法在互联网电商平台和社交平台的深度运用。其影响力开始从商业社会蔓延到政治领域,引导某种价值观念的算法往往容易在现实政治中产生影响。究其根源,在于人工智能算法在现代性之下,凭借其对于每一个用户的了解,以用户之间类似的价值观念迅速将单个的用户捏合成有共同诉求的强大团体。

现代性的重要特征之一就是原有的宗教、宗族、社团等不断消解,并在其之上诞生原子式的社会结构,每个人不再是血缘、宗教纽带等之下的某一份子,而成为社会的基础单位。人与人之间不再以血亲、宗教联系为主,每个人都在法律意义上成为平等的主体,具有普遍性的平等权利和义务。与此同时,个体的现实生活逐渐为普遍性所消解,植根于现代性之上的人工智能算法则根据每一个用户的偏好和行为模式,向其推送相关的信息,为单个用户之间赋予某种联系并将其组织起来。在某种意义上,人工智能算法是在为每一个用户赋予特殊性,并将其组织起来,由此在个体碎片化的时代,形成全新政治力量。极端情况下,算法将可能被用于操纵用户,影响国家政治。

以“剑桥分析”(Cambridge Analytica)事件为例,英国政治咨询公司“剑桥分析”利用剑桥大学心理测量学中心开发的数据搜集应用,通过比对用户的评论和个人资料建立了一个强大的算法模型,再用这个模型来预测和影响其他用户的行为模式和投票选择。算法和大数据运用最终造就了一款强大的政治工具,可识别摇摆不定的选民,并针对性地推送可能会产生共鸣的新闻资讯和政治广告,左右选民投票。

通过“剑桥分析”事件可以看到,结合了大数据技术的人工智能算法,已经在现实生活中对公众产生深刻影响,并成为现代政治中的不稳定因素。在乌克兰、委内瑞拉等国家发生的社会动荡,其背后均有资本力量依托人工智能算法在政治新闻(甚至假新闻)对潜在受众精准投放的影子。在这个意义上,人工智能算法,已经成为资本力量动摇主权国家安全的重要支点,亟待规制。

二、人工智能算法权力的日益膨胀

不同于传统的技术进步,运用于基础性高新科技的人工智能算法不断迭代更新,通用于各行各业而支撑起新一轮的产业革命。人工智能算法本身即蕴含着强大的技术权力,算法黑箱的技术壁垒则加剧了人与算法之间的权力失衡。现有法律法规缺乏对人工智能算法的有效规制,此外在行政监管体制中,行政审查、风险监控等监管程序仍然缺位,导致了人工智能算法的技术权力开始压制个人权利。而未经严格规制的算法权力推演到极致,本身作为人类的对象的算法,将成为外化于人类生活的算法霸权,潜移默化地将人类生活对象化和工具化。

(一)作为新兴技术权力的人工智能算法

人工智能算法在大数据技术及人工智能应用过程中。其在数据处理和深度学习算法上的技术优势生成的对政府、公民、社会组织等对象拥有的影响力和控制力,可以被认为是算法权力。其最重要的特征是通过普通人几乎无法逾越的技术壁垒,维持对个人权利的绝对优势。

人工智能算法在数字时代的高效率运转,赋予了算法权力的合理性。借助于海量的大数据和具备强大计算能力的硬件设备。拥有深度学习能力的人工智能算法可以通过自主学习和强化训练来不断提升自身的能力,解决很多人类难以有效应对的治理难题。算法作为人工智能的基石之一,其运转效率的高低,在很大程度上决定了人工智能应用的广度和深度。伴随人工智能算法在国家和社会治理中重要性的日渐凸显,国家和社会对于算法的依赖也逐渐加深,如前文所述社交媒体平台,其运行的基础就在于人工智能算法的运用。算法权力作为一种新型的技术权力形态,开始逐步得到学界和实务界的关注。

传统政治学的关注重点之一,在于如何协调和平衡国家和社会的关系,即通过合理配置国家权力和利用一定的技术手段来有效规制国家权力的行使,以达到国家与社会之间的平衡。人工智能深度学习算法在国家和社会治理中的应用,使得政府运行过程更加公开透明,民众的治理需求能够得到有效识别和及时回应,有效地降低了国家和社会治理的成本和难度,提升了国家和社会治理的绩效,算法也由此成为社会有效规制国家机器运行的强大技术支撑。随着人工智能应用场景的不断拓展和应用程度的不断加深,依据人工智能算法分析的结果来决策、听取人工智能算法的指令而行动,在不久的将来可能会成为人类决策和行为时的常态。人类对于人工智能算法的技术依赖将会不断增强,算法作为一种技术形态的权力开始嵌入人类社会的形态当中,并深度影响人类的思维、行为模式。算法权力从表象上看是一种技术权力,但其背后潜藏着控制算法设计和研发过程的资本的权力,时刻在侵蚀着个体的权利。如不加以有效的引导和规制,在不远的将来,通过不断地机器学习愈加强大的人工智能算法权力,将出现脱离人类控制的风险,并有可能演化成为人类异己的人工智能算法霸权。

(二)从算法权力到算法霸權

近年来,伴随人工智能技术的不断推进,有人认为人类社会正逐渐从弱人工智能时代向强人工智能时代转变。人工智能形态的不断变革,也引发了法学界关于人工智能体属性和地位的争论。

主张人工智能是机器的学者认为,人工智能的实质是人类设计出来用于提高企业生产效率、降低国家和社会治理难度、满足人类美好生活诉求的机器,人工是智能的前提。而主张人工智能应该被赋予主体人格的学者认为,深度学习算法的出现,使得人工智能具备了越来越多的自主意识和自主行为能力,应该赋予其部分的法律人格和财产权利。也有的学者认为:“简单地以机器‘长得是否像人或者‘表现得是否像人作为评判其能否获得法律主体地位的标准要件。不仅容易因概念的含混不清导致可操作性不强,还可能会陷入法律与科学技术双重认识不一致的泥潭”。

人工智能是主体还是客体的争论还将持续存在,但是在深度学习算法的推动之下,人工智能的自主学习能力正不断增强,自主意识也在不断形成。面对人工智能时代的到来,目前资本权力主导的人工智能算法出现某种类自我意识并试图摆脱的可能性也在逐渐增加。在这个漫长转折到来的前夜,有必要担心人工智能算法权力有可能正在从技术权力的表象和资本权力的实质演化成人工智能算法对于人类的技术优势,并最终有可能转变为人工智能对于整个人类的霸权。

(三)算法权力加剧人的异化

人工智能算法本身的逻辑并不考虑作为主体的个人的主体性,每一个个体都只是算法逻辑体系下的参数。在这个意义上,每一个具体的人都被算法所对象化,算法权力也因此加剧作为主体的人对自身的疏离感,即经典马克思主义所说的“异化”“物化”或“物象化”。

人工智能算法为指令的输入和大数据的机器学习所预留的空间是无限的。但无论输入多少指令都无法改变其“刺激一反应”这一模式的底层逻辑,申言之,在人工智能算法所设定和复制的人类行为模式中,没有考虑到自由意志和伦理自主性。人作为社会性的主体,其一举一动都为其自由意志所设定,为其道德伦理所约束,而人工智能算法主导下的行为模式,是缺乏道德观念和伦理性思考的反应,对现有的人类社会道德秩序会产生极大地冲击。人工智能算法这一先天缺陷,已经在影响现实的人类社会,且暂时难以克服。

由上可见,对比人工筛选的信息推荐模式,人工智能算法推荐缺乏伦理道德的认知。事实上,由于伦理道德的非确定性,人工智能算法无法依据抽象的原则,在具体的事件中作出符合道德规范的反应。在人工智能算法的逻辑中,很难训练出类似人的道德决策能力,其只能复制人的行为,而不能理解其中的道德性。这种先天缺陷的存在,源于一方面技术理性排除了价值判断,另一方面算法追求效率最大化所决定的。

因此。人工智能算法之逻辑与人的主体性的冲突。在某种意义上可以归结到认识论的差异之上。即人工智能算法依托对人类行为的大数据的机器学习,不断积累某种情况下人类似的反应,并由这些碎片化的底层知识,归纳总结出算法在应对此类情况时所可能做出的反应的依据。亦即人工智能算法依照其工具理性的要求,把来自外界的混杂多样的刺激划分成若干部分。在这些部分中,算法只是在范畴上把对于其实际干预具有突出作用的组成部分裁剪下来。这样的反应模式白形成之初,就缺乏人的自由意志和伦理道德的精神内核。由此可见,人工智能算法不再仅仅作为在某些领域中辅助、替代人类决策的工具,而是总结人类的行为,形成另外一套反应(决策)的逻辑体系。换言之,其完全以工具理性改造了人类行为的逻辑,并在此基础上排除价值判断,并形成基于人工智能算法的类似人类行为模式。

正如法兰克福学派在了解美国式传媒工业后总结的那样,文化工业始终强调其提供的标准化产品是观众内心所需的。但实际上观众回馈的调查问卷,就是文化工业本身按照自身的价值规范,通过稳定投放类型化的文化节目,引导、营销、暗示观众的价值观念,观众本身也就成为标准化产品的结果而非价值源泉。相较而言,人工智能算法受益于大数据技术的运用和社交媒体带来的信息的分类推送理念。其展现出的算法权力必将是在一个更加封闭的信息茧房内对受众更为深刻的影响。现代人也因此被割裂开来,接收着人工智能算法定向推送的差异化的信息,行为模式和价值观念也在不知不觉中为算法所渗透。在某种意义上,算法的进步过程,也表现为人类退化的那种隐蔽的过程。

在本质上,算法权力将直接导致对人类行动模式的工具性支配,即算法通过消除人类社会的多种多样的印象,将多姿多彩的人类社会排除在外,得到人类社会的可改造性。在算法权力的这种支配性实践中,其最终从现实中能够察觉到的只是那些可以有计划、有步骤地控制和有制造条件的事物。因此,推演到极致的算法霸权,将会把人类社会剪裁成对社会统治的那种单纯的投射。

(四)算法权力对个人权利的压制

人工智能算法导致人自身异化的同时,成为压迫个人权利的新的力量,并切实威胁着个人权利。在大数据网络时代,个人对其在网络上产生的数据,天然享有数据所有权、数据隐私权等基础性权利,并存在希望就个人数据获取回报的机会。法律因此规制了个人信息权、数据权、拒绝权等新的权利。但依托大数据技术发展的人工智能算法,由于其深度专业性和缺乏相应的行政、立法规制,而日益形成对个人权利的结构性压迫,这是算法控制者与算法对人的双重压迫。

打赏本站 赞一个 ( )

如果本文对你有所帮助请打赏本站

  • 打赏方法如下:
  • 支付宝打赏
    支付宝扫描打赏
    微信打赏
    微信扫描打赏
留言与评论(共有 0 条评论)
   
验证码:
二维码