网站地图 北京大学 友情链接
您的当前位置:首页 >> 内容详细页
学术交流
孙清白:人工智能算法的“公共性”应用风险及其二元规制
阅读:36次    发布时间:2020-8-24
 

人工智能算法的“公共性”应用风险及其二元规制


孙清白

(河海大学马克思主义学院,江苏 南京 210000 博士研究生)


本文原载于《行政法学研究》2020年第4期

“人工智能”专栏

摘要:人工智能算法与公权力和商业平台的结合,使算法具备权力属性,是算法的“公共性”应用。人工智能算法的“公共性”应用会产生一系列潜在风险。为减少算法“公共性”应用给社会造成的负面影响,应当从技术规制和权力规制两个维度调整算法在公共领域的应用。技术规制策略包括明确算法监管机构、统一算法技术标准以及建立算法备案制度,权力规制策略则包括提升算法透明度、明确算法在特定领域的辅助应用地位以及确立算法问责机制。

关键词:算法;公共性;算法权力;算法责任


得益于21世纪以来大数据技术的发展、理论算法的革新以及网络设施的改进,人工智能已深度嵌入当今的社会生活。根据人工智能应用场景的不同,人工智能有针对特定对象的个性化应用和服务于不特定对象公共性应用。人工智能的“公共性”应用更容易带来普遍性的社会风险。与人工智能的个性化应用和公共性应用相对照,人工智能算法也呈现出个性化或公共性的特征。我们在鼓励发展人工智能技术造福人类的同时,要警惕由人工智能算法的“公共性”应用给人类社会带来的风险与挑战,并从法律规制角度做好充分的应对。


所谓算法的“公共性”就是算法与公共利益相关,具有影响社会运行的规则属性。算法的“公共性”应用有如下两种表现形式:其一,算法与公权力的结合。一方面,一些公权力的行使常依赖算法的事实认定功能(如人脸识别、交通监控),算法在其中起到重要的辅助作用。另一方面,在有些应用场景下,由于算法极大地提高了公权力的运行效率,算法已经摆脱工具化属性,扮演着资源调配和决策做出等关键性角色。可以预见,今后在公共服务领域和社会治理方面,人工智能系统将会得到更加普遍、更为广泛、更深程度的应用,算法与公权力的结合会更加紧密。其二,算法与商业平台的结合。除了与公权力的结合外,算法与商业平台的结合也能够影响到社会生活的各个层面,展现出明显的“公共性”。一些商业平台(如百度、阿里巴巴、腾讯)控制着我们对资讯的获取,掌握着我们的个人信息和信用状况,改变着我们的消费方式和消费习惯,我们在智能终端平台所留下的任何痕迹都被这些平台所记录、保存、处理并通过各种方式使用。更值得注意的是,这些商业平台已不仅仅只是商业上的存在,而是逐渐演化成各领域社会资源的掌控者。算法与商业平台的结合,使得算法不再仅仅只是工具,而是一种“准权力”,算法已然从网络空间的治理转移到了现实社会的治理。


算法在社会治理和商业平台中扮演着举足轻重的作用,具有“公共性”的算法如果不能得到规范的应用,就会产生各种公共风险。算法的“公共性”应用至少会产生如下三种风险:1.因算法不透明所产生的风险。对于人工智能在社会治理领域的应用,算法的不透明会在不同程度上削减社会公众的知情权并进而影响公众行使权利。此外,算法的不透明性意味着只有少部分掌握算法核心技术的人才知道算法的运行机理,如果有人通过算法干预甚至主宰社会的运转,以至于影响到公平正义价值之实现,就会出现所谓的“算法独裁”或者说算法的技术化统治。2.因算法“偏见”所产生的风险。算法的编写者由于所受教育、所处阶层、成长经历乃至开发环境等因素的影响,一些主观性认识会不可避免地被编码到算法中。仅从技术角度来看,纯粹意义上的“算法中立”就很难实现,算法总是带有一定程度的“偏见”。除技术性因素外,人为设置的算法“偏见”更值得重视。如针对白人面部特征的人脸识别系统,会有很大的概率将有色人种识别为嫌犯。考虑到人工智能技术在信用评估、司法裁判、社会管理等方面有着广泛应用,算法“偏见”会产生社会危害性。算法 “偏见”会导致决策的不公,损害到法律主体的平等权,而这种损害是由算法这种看似客观公正的手段所致,往往具有更大的隐蔽性。特别是故意设置的算法“偏见”,甚至是是带有主观恶意、商业目的或非法目的的“偏见”往往打着 “算法中立”的旗号,损害的不仅仅只是个体的正当权益,也会最终损害到社会公共利益,故而社会危害性更大。3.因算法“权力异化”所产生的风险。公权力领域的算法应用,在缺乏有效规制的情况下,会带来“权力异化”的风险。原因有二:一方面,传统用于限制公权力行使的法律原则和法律规则在面对“算法权力”时存在无法适用的困境。另一方面,算法毕竟是由人类编写,出现漏洞(Bug)在所难免。一旦算法出现错误,除非算法的设计者,普通的社会公众根本无法察觉,也就不可能有机会纠正公权力行使的错误并维护自身合法权益。除技术性的“权力异化”外,别有用心者会促使算法与公权力合谋,滋生腐败和寻租。通过算法进行腐败和寻租具有极强的隐蔽性,相较于传统的权力腐败更值得警惕。商业平台在现代社会中扮演着举足轻重的角色,其算法影响力丝毫不弱于政府公权力,因而商业平台算法“权力异化”所带来的风险同样不容忽视,商业平台所造成的隐私窥探和泄露问题尤其值得关注。


在智能时代,政府部门和商业平台均须借助人工智能实现社会治理和商业目的,但人工智能算法“公共性”应用的潜在风险又是难以回避的,我们需要做的是尽可能地从法律规制的角度减少算法风险的负面影响。鉴于算法本身是一种技术,故从技术角度对算法进行规制是当然之理。此外,算法在公共领域的应用,已经使得算法具有很强的权力属性,因此还有必要从“算法权力”角度予以规范。


算法风险来源之一是技术风险,技术规制是算法规制的基础。从纯技术角度对算法的规制包括如下两个方面:1.明确算法监管机构并统一算法标准。考虑到当前与网络及信息化管理相关的行政机关职能众多、人力有限,且缺乏与算法有关的专门技术人才,故有必要依托具有相应专业人才、技术支撑和监管能力的行业自律组织负责算法的监管。由相关主管部门依托现有行业协会或在改组现有行业协会基础上赋予其算法监管职能,即建立由相关行政机关负责指导,行业自律组织负责实施的算法监管体制。而要尽可能地减少算法“公共性”应用的风险,还必须由行业自律组织主导制定相关算法标准。统一算法技术标准的核心内涵在于确认某种算法在现有技术条件下的科学性和合理性。为事前降低算法的“公共性”应用所引发的风险,有必要建立该类算法的备案制度。在确定行业自律组织为算法监管机构基础上,算法备案职权也应当赋予行业自律组织。算法的研发者只要依据法律、法规规定提交符合条件的备案材料,算法经初步审查不存在相应风险的,行业自律组织都应当接受备案,以避免过多地干预算法的应用,阻碍技术创新。研发者在取得备案登记文件后,即可将算法转入应用阶段。


算法的技术规制手段只能消减算法纯技术上的风险,技术上的规制固然重要,但算法在公共领域的适用,使得算法具备了权力属性,而该类算法被不当应用才是风险产生的根源,故而还有必要对于算法背后具有权力属性的要素进行规制。权力角度的规制策略主要包括以下方面:1.提升算法透明度。我国可根据人工智能算法“公共性”应用场景的特点通过如下方式强化算法透明度:一是确立算法解释规则。算法的设计者和算法的应用者应当对算法做出决策的过程进行解释,从而使利益相关者的合法权益在遭受算法不当影响时,能够知晓自身合法权益遭受到的损害以及如何寻求救济。二是确立知情权和异议权规则。知情权和异议权规则强调,受到算法决策影响的主体有权知晓决策的做出包含算法因素,以及算法决策影响自身权利的方式与程度。三是完善个人信息和隐私保护规则。当事人有权反对基于纯商业行为目的的个人信息处理,包括有权反对与营销目的有关的数据画像,尤其是拒绝针对于有关其经济状况、健康状况、个人偏好、行为习惯、地理位置或行踪相关的分析和预测。2.明确算法在特定领域的辅助应用地位。如果某种决策必须建立在所针对对象的全部信息基础上,尤其是全部信息所涉及的各个要素之间还有存在只有人类理性才能理解的逻辑关系时,这种决策就不能完全依赖算法,算法只能发挥辅助作用。3. 确立算法问责机制。算法问责机制要求算法权力通过规范的方式行使,相关主体有义务减轻算法所带来的负面影响或潜在危害,当算法造成实际损害时,相关主体须对算法决策承担责任。算法责任机制有如下内涵:(1)在算法开发完成后,研发者需要验证算法是否按照设计的意图运行;(2)算法应当通过规范、公正的方式进行应用,避免出现算法“偏见”和算法权力的滥用;(3)算法责任应当是一种严格责任,一旦算法在应用过程中产生任何风险或造成任何实际损害,算法的研发者和应用者都有义务承担算法责任,即便事先已取得利益相关者的知情同意或纯粹的技术缺陷也不足以阻却相关主体所应承担的算法责任。


 
网站介绍网站地图版权与免责联系我们
版权所有©北京大学公众参与研究与支持中心    技术支持:北京互联信通网站建设   京ICP备18009972号-1 京公网安备11010802008500号
DHL快递电话 北京DHL 白癜风 指纹考勤机 北京seo 食堂售饭机 北京建站 dhl快递电话 白癜风遮盖液 白癜风遮盖液 白癜风遮盖液 小额贷款 北京企业邮箱 北京高空作业车