打开网易新闻 查看更多图片

平等权作为宪法所规定的一项法治信念与公民基本权利,在数字时代的技术浪潮下确实地受到了挑战。与当前公众最为关注的新兴技术侵犯经济平等不同的是,隐蔽性强且影响深远的身份平等问题值得关注。就数字时代平等权受到冲击的表现而言,主要包括歧视偏见悄然蔓延、“机器僵尸”流言横行、设备技能阻碍正常参与。就平等权受到冲击的原因而言,主要包括普遍性歧视纳入程序、算法黑箱以及数字权威、网络去中心化的现实、入网设备与技能等客观不足。就挑战的回应而言,在技术治理的路径中确立算法平等理念,嵌入伦理自律规范,算法解释突破黑箱,并加强算法的审核。

打开网易新闻 查看更多图片

引言

平等权,是近代以来世界各国宪法所确立的一项法治信念,也是我国宪法明文规定的公民基本权利。我国宪法第33条第2款规定:“中华人民共和国公民在法律面前一律平等。”除此之外,我国宪法还在第4条第1款、第36条第2款和第48条第1款分别确定了民族平等、信仰平等和男女平等三项特别平等权。任何侵害平等权的组织或公民,不仅将承担部门法律法规所规定的相应法律责任,还会受到来自社会舆论扑面而来的道德批判谴责。尽管维护社会平等、反对差别歧视已经自宪法与法律的规定,反作用于普遍的社会意识,从而形成了良好的公平氛围,进一步共同造就了严谨又不失灵活的平等权保护机制,但在当前技术迭代日新月异、新兴产品层出不穷的数字时代,平等权遭受技术侵害的危险似乎被忽视了,而既已造成的损失又深潜于信息的洪流之下、埋藏在算法的暗箱之中。在感谢互联网、人工智能、大数据等技术带给人类普遍的福祉的同时,我们也应回应平等权是否仍然在这些技术的冲击下安然无恙?面向数字时代下的平等权的观察和讨论,正是本文的主题所在。

一、概念的厘清:经济平等?抑或是身份平等?

在谈及数字时代人工智能等科技产物给平等权带来的妨害之前,我们有必要先对本文的基础概念,对“平等权”的概念做好界定。因为“平等”较之“平等权”,其外延要宽广得多,而当前社会对于这些技术对于公众平等的侵害的理解,其内涵与本文意欲讨论的内容存在着一定的差异,而这种差异既是可以解释的,也是值得警惕的。

经济歧视是过往学界与大众较多关注的问题,这种偏见定价手段也被恰如其分地命名为“大数据杀熟”。但归根到底还是传统市场经济运行规则中,商家对消费者价格歧视手段的集中运用。易言之,商家或平台依据其收集到的消费者信息,实现了对各个消费者情况精准的掌握,这样的精确来自已经达到的“完全信息”的丰富程度,以至于他们的价格选择可以为每一位消费者提供不同的价格。

“大数据杀熟”之所以为大众所了解、厌恶和抵制,一方面在于其直接地伤害了消费者的经济权益,阻碍了消费者行使其知情权、选择权、公平交易权等基本权利;另一方面,也在于其具有很强的隐蔽性,很难为消费者所察觉。事实上,即使是所谓的“很强的隐蔽性”,只要被商家或平台区别对待的两个人有所接触,就购买的商品价格加以讨论的话,这样的把戏就会立马暴露;并且追求价格最低的消费者群体,也有充足的理由意愿相互交流价格的高低。因此这样通过技术破坏经济平等的手段,其实最容易为人所发现,也最容易为人所愤懑。大众会将数字时代科技产物对平等的冲击,简单地认定为是经济歧视,也就没有那么难以理解了。但问题在于,真正暗藏在技术面纱之下的,就只有让消费者减损财产权益吗?

身份歧视是限定在“平等权”话语下的歧视类型,这一类歧视大多数都是对他人或其他群体的身份进行不合理的差别对待。其主要表现为基于人的性别、残障、传染病病原携带等特定身份而形成偏见与不合理的对待影响。当人类进入数字时代之后,人工智能等新兴技术对于消费者的经济歧视所造成的伤害,也随着披露被曝光从而引起轩然大波,涉及的商家和平台一时便成了千夫所指。但很少有人将“平等权”与“新兴技术”相联系起来,思考自己的身份平等在数字时代的科技浪潮下,是得到了巩固?抑或是受到了削弱?如果其受到了侵害,又如何补足相应的保护呢?目前学界已有部分学者针对这个问题展开了讨论,但绝大多数人们对于这个问题还没有清晰的认识。其一,人工智能、算法与大数据的技术手段就需要相当的技术门槛,且行动痕迹深藏不露、难以发觉;其二,平等权的受害较之经济利益的减损,短期所受到的直接影响也相对较小,尽管长远来看很可能会产生更严重的后果;最后,互联网的快速普及使得很多民众误以为自己较之先前凭空获得了参与讨论他人生活的权利,但事实上自己可能也被网络技术所控制了。

二、恶害的近察:数字时代对平等权的挑战

随着互联网在世界各国的落地建设,入网用户数量的大幅上升,以及各式传感器技术、数据存储方式与通信技术的革新,人类社会的数据规模上升到了一个新的台阶,人类在2010年左右进入了大数据时代。信息技术的进步没有止步于此,硬件的提升、平台的助力让数据处理能力、编程运算能力与算法的科学程度有了质的飞跃,从而使得先前积淀已久的人工智能技术走向了决定性突破与爆炸式发展,人工智能技术也下沉至民用领域,广泛地出现于各种生活场景中,尽管人工智能技术尚不完美,但无人会否认我们已经处在一个“数字智能的时代”。本文所提及的数字时代下的新兴技术,正是以互联网为基础平台,以大数据、算法以及综合运用的人工智能为代表的一个技术集合,而它们对于平等权的挑战和冲击,则集中体现在以下的三个方面。

歧视是数字时代带给平等权的首要恶害。例如,近年来随着智能手机而兴起的语音助手服务,如果接受服务者的方言口音较为浓重,或者方言口音不太常见的话,这些语音助手完全没有能力理解他们的话语,毕竟对于方言口音的理解需要足量的样本学习,而这无疑是剥夺了操持这些方言口音者平等接受服务的权利。考虑到方言口音与经济发展之间也存在着一些微妙的联系,这也无疑加剧了弱势群体与新兴技术之间的冲突。

政治机器人的运用对于公民参与政治的平等权的打击,既是沉重的,也是极其隐蔽的。一方面这些采用了人工智能技术的机器人,在网上大肆散布着关于己方候选人赞美的言辞,又全力攻击诋毁对方候选人,我们无法确定所有的这些消息都是真实或者都是虚假,但半真半假的情况已经足以让支持己方的选民更加坚定,也让对方的选民再三考虑自己的选择;而“信息茧房”,这种算法导致的个性化但也固定化了的推荐信息,也让互联网用户只听他们选择和愉悦他们的东西,最终导致自认为是信息充足的互联网社交媒体用户,反而相较于信息来源单一、更少使用社交媒体的人群,更易受到虚假信息的侵扰,谣言和虚假信息在“信息茧房”效应下形成了定向投送,参与政治作出自发判断的平等权受到了极大的侵害。

数字时代,同样也是前沿科技设备和技能的时代。根据中国互联网络信息中心制定的《第48次中国互联网络发展状况统计报告》(以下简称《报告》),截至2021年6月,尽管我国网民规模达10.11亿,手机网民规模达10.07亿,但非网民规模也达到了4.02亿,其中城镇地区非网民占比为49.1%,农村地区非网民占比为50.9%。使用网络技能的缺乏、文化程度的限制和设备不足是非网民不上网的主要原因。其中,因为技能的缺失(包括运用设备的技能与基础文化的技能)而无法上网的比例高达74.5%,而缺乏上网设备的非网民则占比14%,此外,因年龄过大或过小而无法上网的人员占比为13.8%。且不论由于年龄原因确实无法接触网络的人群,对于其他非网民人群而言,或是他们缺乏连接网络的技能,或是缺乏连接网络的设备,使得他们无法享受到数字时代的科技发展红利,也让他们的意见、观点和其他权利难以同连接入网的人群一样有更多的渠道被得知、被考虑、被保护,而这也是一种形式对他们的平等权的减损。

三、因果的探讨:何以“路有不平”?

平等权在数字时代所遭受的恶害,在前文已经有所论述。而为何这样的不平等,会在数字时代以改头换面的形式,借助新兴信息技术的外衣,潜藏深隐地对我们的生活形成威胁。

歧视,事实上伴随人类长期以来生物进化与社会发展的历程,一直存在于我们的认知体系内的一种分类机制。人类是通过分类来认知客观事物的,分类也简便了人类认知活动。它将无数的个体基于某种内在的相似性而分成更易于理解和管理的数个类型,并且在类型内强调个体的共性,在类型与类型比较时又突出他们之间的区别,以达到清晰认知这个世界的目的。而出于认同自我、提高自尊的需要,每个人都倾向于将褒义的印象赋予本人所在的类型群体,而将贬义的消极的刻板印象赋予本人不所属的类型群体。最后,当这种贬义消极但可能没有多少根据的刻板印象达到了一定程度,人类也就会自然地开始习惯着用恶意的眼光观照他人,歧视偏见也就随之而来了。因此歧视偏见是广泛存在于社会中的普遍现象,它是人类认知结构和社会组织形态的必然产物,而这些根植于我们认知世界深处的歧视与偏见,在数字时代到来之后,必然将会以一些形式嵌入到这些科技产品之内,从而使得本应中立的技术表现得富于歧视与冒犯。

虽然造成算法和人工智能歧视的根本因素在于歧视在人类社会的本源性存在,但这些歧视是如何植入到算法与程序之中呢?目前看来,主要有三条路径:第一,来自编写算法程序员的个人偏见,程序编写人员是算法与程序的创造者,他们所拥有的观点和态度将会糅合进代码中,他们的主观判断决定着程序的各项机能的运转,程序因此也充满着程序编写人员的主观色彩。第二,来自输入数据的偏见,输入到算法内部进行训练与运行的数据也可能是歧视的来源,这些数据可能代表性不足,针对弱势群体(如女性、老年人、残障群体)时会产生数据暗点,造成结构性的偏见;这些数据也可能代表性过度,针对某些群体的数据因为某些原因大量地负面性生成,从而使得异常数据过于稠密,形成数据亮斑。第三,人工智能的后天学习也可能导致整个程序走向“歧路”,人工智能是通过机器学习来实现其超越一般程序的智能的,但如果其收集的新数据或从人群中互动所获得的信息存在严重的歧视的话,那么最终人工智能程序走向歧视也是可以想见的。

算法黑箱,是指在人工智能输入的数据与答案之间,存在着除编程人员之外其他用户无法理解的一个“黑箱”。我们既无法观察算法运作因与果之间的前后过程,即使人工智能向我们解释,我们也无法理解。易言之,人工智能的决策过程很难被普通人所理解或洞悉。算法黑箱的出现主要有以下的三点原因:首先,算法大多为国家机关或企业组织开发使用,而这些使用者的特殊身份使得公开算法受到了商业秘密与国家秘密的掣肘;其次,由于了解或参与算法的相关工作,存在着比较高的基础门槛,因此高门槛也是“算法黑箱”的成因之一;最后,算法本身在当前的应用发展,已经使得其本身就非常复杂,算法本身的复杂情况也使得其不透明性大幅上升。

算法黑箱情况的出现,虽然没有直接导致平等权受到负面影响,但是不透明的状态严重地阻碍了针对技术是否侵害了平等权的探查工作,也使得民众缺乏对于算法与人工智能充足的防备能力与自发的监督条件。就这样,在这样一个强调信息互联的数字时代,技术的一方相对于缺乏技术的一方,形成了一道“数字鸿沟”,双方信息不对称的格局也就此形成了。实际上,信息的过度不对称甚至导致了技术优势一方对技术劣势一方的“数字权威”,使得数字时代从服务大众的时代变成了单方面的技术精英秘密统治。这样的权力结构破坏了技术方与受众方的平等地位,帮助歧视与偏见肆意流窜于网络与程序之中,伤及了广大群众平等权的实现。

去中心化,可以解释当前(外国)网络社交媒体平台上,缘何出现如此多影响到竞选公平以及选民信息平等的政治机器人。互联网时代,权力开始去中心化了。而近十年来网络社交媒体平台的崛起,为个体的发声提供了前所未有的便利与机会,基于互联网的多节点、无中心等特性,权力开始呈现出多元主体与分化行使的情况。在这种情况下,越来越多的个体获得了表达权与话语权。

对于谣言与不负责任言论的管控,在去中心化的网络社群中后,面对海量的“政治僵尸”的涌入,政府与社交媒体平台因为其与一般网民的相似而难以作出及时的识别与处理。这也是政治机器人借由去中心化的现实特征所故意达到的效果,“信息茧房”效应又加剧了这些信息出现在特定用户浏览界面上的频次,使得一种“定向”又不受控制的信念影响有了可能,而部分网民,尤其是社交媒体平台涉政重度用户便在这个权力真空深受谣言与不负责任的言论之害。

进入数字时代以来,越来越多的技术自实验室走出,走入人们生活中。但想要获得这些技术的福利,也必须得拥有可使用这些技术的设备与能力。部分地区的政府与公益服务机构也开始致力于公共服务的信息化建设,通过公共的财政或公益基金来保障部分公共服务的信息技术引入,这促进了服务信息化便捷化,与此同时也间接地推动了人工智能等新兴技术的普及。

四、对策的提出:数字时代平等权的双线保护

当我们研究数字时代平等权保护的对策时,我们应从数字时代下的技术本身出发,从技术治理的源头探讨平等权的保全之法。数字时代平等权的挑战,很大一部分来源于算法的编写中所生发的歧视内核。而技术治理以保护平等权的路径核心,便在于加强对算法从理念根基,到自律自核,再到他律审核的全过程的监督控制,从而形成技术层面的自发的平等权保护制度。

技术治理中算法规制的基点与起点,应当是在技术的世界、算法的领域内确立平等的理念。算法作为一种技术,不存在主动选择了歧视与偏见的情况,正是设计算法的人的思想与观念预定了算法最终形成了何等的价值取向。因此针对“人”的“道德理念”的确立,才是在平等权保护的技术治理中起先决作用的,这就是“道德内化”需求的原因。道德内化的过程对算法设计者进行了约束,设计者应当在自己设计算法的过程中将道德贯彻始终。根据科学技术与伦理道德善恶并进论的观点,科学技术既可以推动人类社会发展,促进伦理道德进步,也可以让伦理道德退步;一方面技术具有影响人类道德演进方向的能力,可以使新时代的道德诞生,另一方面道德也具有影响技术发展的能力,二者是相互作用的。如果算法设计者无法在道德理念上坚守正道,算法便可以形成新的“道德”生发更多的“恶”;而道德具有约束算法设计者的力量,可以引导约束他们,使创造出的算法向“善”。算法歧视中偏见的消除和预防,要求我们对于什么是算法意义上的平等作出清楚可靠的厘定。(1)算法平等首先体现在算法的形式平等上,也可以称为“数量平等”。算法的形式平等仅就数量数值上的多少而进行相应的分配,在其中并不做个性化的探讨,是一种“群体公平”的体现。如自动化系统单纯地通过区域内联机设备的数量多少,以判断一地的活跃人口的数量多寡,从而决定警力的派驻人数与巡警频次。这样的平等覆盖尽管在大多数情况下都能实现资源的合理配置,但在部分特殊的情况中,则无法顾及少数一方与个体需求。(2)算法平等同时更应体现在算法的实质平等上,即“质量平等”。算法的实质平等同时考虑到了宏观数量内的少数群体与个体差异,十分重视每一个个体是否在算法的资源分配中取得了公平对待。如自动化系统不仅通过区域内联机设备的数量,同时也通过往前接警的次数等要素,结合大数据的技术综合得出应当派往各地的警员数量。这样的平等更加契合了信息时代的要旨,即通过算法个性化、精细化地获取信息,并以此来使资源的配置更加平等有效。

在平等的理念得于算法的创造者的观念中确立后,接下来则是将这样的理念植入算法的内容之中,实行算法的伦理自律,在设计算法的过程中实现预防歧视。就国外的范例而言,几家规模位居前列的互联网科技公司均对人工智能研发作出了伦理自律规制。微软于2016年即提出了人工智能研发的数项核心设计原则,包括算法的透明公开、防止歧视性程序、保护个人隐私、可问责的算法设计等内容;谷歌则于2018年公布了人工智能研究七大准则,用以规范技术研发人员的工作伦理。这些设计原则,不只是各大公司对于其研发过程中所发现的伦理问题的理论回应与道德反思,同时更是可以积极应用于人工智能算法研究、数字产品开发和商业决策部署中的明确标准。而作为一种更高级的伦理自律联合体,2016年亚马逊、谷歌等数家全球互联网科技公司还共同设立了PartnershiponAI,合作研究和探讨AI技术与伦理的发展前沿。而就我国的伦理自律规范而言,国家层面的探索也早已开始了。由科学技术部牵头设立的国家新一代人工智能治理专业委员会,于2019年即发布了《新一代人工智能治理原则—发展负责任的人工智能》,对人工智能治理的大体框架与未来的发展方向作出了规划,以回应人工智能迅速发展的技术现实与社会大众对技术治理的迫切需求。其中第2点“公平公正”即规定了人工智能发展应当“保障利益相关者的权益”“促进机会均等”,更重要的是“在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视”,集中体现了原则层面上的平等伦理自律原则。而该委员会于2021年9月26日发布的《新一代人工智能伦理规范》(以下简称《伦理规范》),则更是将伦理道德融入了人工智能及其算法研发的全生命周期。《伦理规范》第10条提到了人工智能研发人员应当秉持自律意识,加强研发活动中的道德自我约束,加强自我审查环节;而针对平等的相关规范,首先在第3条的基本规范列举中,即要求人工智能道德发展应“促进公平公正”,其次于第13条与第16条中,提出了“避免偏见歧视”的具体要求,要加强伦理审查,切实考察差异性个性化需求,规避可能存在的数据偏见与算法歧视,并且不得为用户平等使用人工智能技术在算法或程序等内容上制造困难。

算法黑箱的存在所带来的算法歧视难于监管的困局,其原因在于技术的帷幕使得算法的决策不再透明,从而让企业自律、机构监管与司法审查无从查证其是否存在严重歧视的事实与可能,易言之,无法打开算法黑箱,对于数字时代中的人工智能各项信息技术就没有可以监督的抓手。在美国“威斯康星州诉卢米斯案”中,法院对于COMPAS系统是否存在歧视的问题上采取了相对模糊保守的观点,其态度便来源于法院无法确认涉案智能系统判断被告人再犯风险高低的算法含义与运行办法;而法院一旦明确了算法的运转逻辑与价值内涵,便自然会基于其理解的内容作出准确的判断。这说明知悉算法的内涵逻辑是评判其是否具有偏见或歧视事实和可能的重要前提。算法解释权正是这样具有释明算法意义、可突破算法黑箱的一项关键权能,是使得监管者得以操控无序代码,重控程序规制的关键一环。算法的解释无意于揭露代码、算法与落地应用的技术细节,因为这样一方面无法让审核监管一方对代码与编程形成实质性的理解,另一方面客观上也损害了涉及单位的国家秘密或商业秘密,因此,算法解释权存在着目的与范围的限缩问题。针对算法黑箱前置的程序歧视问题,其目的自然在于观察算法中决策过程,而当中的运行逻辑、价值理念、输入数据、判断要素、程序流向均是需要得到解释的内容,因为它们具有理解算法是否形成不合理的区别对待的实质意义,反言之如无相关的实质意义,则被监管的技术方就没有向监管一方解释其他算法内容的义务。值得说明的是,如果一则算法在不同解释方法下出现了歧视与非歧视同时存在的观点,则如何处理?我们认为,鉴于技术的客观属性与主观评判共存的情况,确实可能存在算法设计者本人无意于偏见,但运行过程中被理解为存在歧视伤害平等,因此产生了不同的理解,但考虑到算法所架设起的应用快速传播与深刻影响,应当在算法的解释严格对算法的限制,使其设计者产生积极减削算法被误解可能的优化动力。

尽管已经介绍了确立算法平等理念、将伦理自律嵌入技术研发全生命周期以及通过严格解释突破算法黑箱三项技术治理的规制方法,以避免算法歧视导致数字时代下的平等权遭受侵害。但显然以上三项要么是建立在理念思维的层面,要么就还依赖于技术方的主动解释,而这样还不足以形成足够的强制力。如若技术方表面上接受了如此平等理念与嵌入伦理,但在算法解释时却给出错误甚至是虚假的解释,那么整体的技术治理就是空中楼阁,无法从根本上杜绝技术隐性作恶的可能,因此专门的算法审核是极为必要的。(1)算法审核的主体,应当是独立可靠的第三方机构,这一方面可以避免公众对算法设计者自行审查的不信任感,同时也尽量照顾了算法设计者本身之于该应用的国家秘密或商业秘密,故而第三方机构不存在利益冲突是先决且关键的。(2)算法审核的准绳,应当是根据涉及的算法与应用的具体场景来确定的,不可一概而论。例如针对教育、医疗、司法与警务等公共事业领域在涉及公民人身自由、生命健康与部分特定受保护人群利益等基本权利时,则需要格外的严格审核;而面向私人的应用,如企业招聘、面试采访等场景中,审核的尺度可以稍微放宽;而在个性化推送、广告通知等内容上,审核则与一般的言论审查相近,直接就其内容是否有明显的表达不当检查即可。(3)算法审核的范围,不仅需要对算法的代码与程序本身加以约束,同时也要关注输入到算法中的数据内容妥适与否。输入数据的偏见将很大程度上影响最终应用表现的结果,数据集代表性过强或过弱都导致不良结果的发生,这正是结构性不平等的体现。同时值得注意的是,由于人工智能等技术应用需要深度学习以发展数字智慧,而相当规模的信息数据就需要被导入其中,而这些海量信息的背后可能存在敏感个人信息的引入,诸如生理数据、面部信息、既往病史、残障情况等,是否存在违法收集、违规使用的情况,也值得算法审查关注。总而言之,算法的审核作为技术治理以保护平等权的最终一环,其内容是复杂多变的,需要技术方、审查方与应用方多方沟通以就具体的审查作出合理的制度设置。

结语

数字时代的平等权面临着以往未曾遇见过的困难与挑战,是一个需要包括法律学科在内多个学科综合施治的系统性问题。就这个问题的回应而言,在技术治理的路径中确立算法平等理念,将技术伦理自律规范嵌入研发全过程,通过算法解释权以突破黑箱困境,并切实加强算法代码的第三方审核。

打开网易新闻 查看更多图片

文奕佳 王琳|基因增强后代对自主的损害——基于第二人称视角的分析

杨涵轲 蔡红|人体细胞基因编辑技术伦理问题的法律规制探讨——以英国为例

杨建民|非法植入基因编辑、克隆胚胎罪的法益确定与立法反思

苏杨成|论基因信息的刑法保护

刘璟锟|司法大数据的涉生育辅助纠纷研究——以规范人类辅助生殖技术发展为视角

陈文君|生物科技犯罪的实践检视与适用方向

上海市法学会官网

http://www.sls.org.cn

特别声明:本文经上观新闻客户端的“上观号”入驻单位授权发布,仅代表该入驻单位观点,“上观新闻”仅为信息发布平台,如您认为发布内容侵犯您的相关权益,请联系删除!