关键词:可信算法 算法治理 算法本体 算法关系 制度理性 技术理性
从技术角度看,算法是为实现某个任务而构造的简单指令集,其本质是以有限、确定且有效的设定将输入转化为输出从而解决问题的数学过程。算法以数据为基础,以算力为支撑,借助在具体场景下的部署和应用实现自动化、智能化的决策。按照理想主义的技术预设,由于算法规则的确定性和客观性,算法决策通常被认为是理性、中立、高效和值得信赖的。然而,算法所呈现出的现实图景似乎偏离了这种理想预设,“算法信仰”在层出不穷的算法歧视和算法暴政面前难免沦为一厢情愿式的迷恋。在算法社会到来的前夜,我们需要再三确认:到底什么样的算法才足以让我们将决策权放心托付。
(一)算法信任与算法可信度迷思
一般而言,自然人由于认知障碍、主观倾向、身心状态和外部干扰等原因,并不总能保证其决策的理性与正确。而算法依托确定的输入输出过程,能够实现相较于自然人更为客观、理性和有效的决策。同时,借助计算机程序运行和实现的算法能够更为严格地执行既定规则和逻辑,更为海量且快速地处理决策请求,从而实现决策的一致性、即时性和普遍性。看似机械冰冷的算法,能在很大程度上弥补和消解自然人决策中的非理性、主观性和局限性,节约决策成本并优化决策效率,成为维持社会运行乃至推动人类进步的革命性力量。基于此,算法被人们依赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,由此形成了所谓的“算法信任”。例如,区块链技术因其“去中心化”而更具公信力,正是因为分布式存储、共识机制、Paxos算法、非对称加密等核心算法实现了不可篡改等技术特征,由此创造的“算法信用”对“主体信用”的补充或替代有效地解决了信息不对称下的信任问题。然而,技术特征并非信任的根本来源,人们对于算法的信任倾向以及算法自身的可信度是构建“算法信任”缺一不可的两个方面。易言之,人们选择相信算法并不意味着算法自身就值得被信任。
即便我们有理由相信算法能够按照预设的过程得以客观地执行,但由于其设计、部署和应用难以避免地会受到人类行为的影响,加上技术不完备的客观规律,算法自身的可信度会大打折扣,从而形成一种“迷思”,即对算法可信度的怀疑。
算法信任是算法社会的基础,而信任必须建立在算法可信度之上。即便用户可能会因为主观上的盲目性而选择信任算法,但算法自身可信度的不足会客观上消解这种信任。因此,算法可信度才是确立和维系算法信任的根本。从前文分析看,由于算法可信度迷思的存在,当我们面对“算法是否值得信任”的问题时并不总是能够得到肯定的答案。然而,不论我们目前在多大程度上不信任算法,都不得不承认算法在当下与未来必将发挥着重要作用。任何因噎废食地抗拒算法社会的到来,都是不理智且不现实的。尽管算法并不总是值得被信任,但也不宜全盘否定算法的积极功能,无视那些具备可信度的算法为经济社会更加高效地运行提供的支撑。基于这个前提,我们可以得出一个初步结论:我们不能也不应拒绝算法,但是我们可以规训算法;我们需要算法,但我们真正需要的是可以信任的算法,即可信算法。
(二)可信算法及其内在要求
笔者所称的“可信算法”并非严格意义上的技术术语,而是侧重于算法“可信任”状态或特征的价值判断。由于话语体系的差异,有必要对相关概念进行区分以避免混淆或误解。在技术语境,“可信”源自作为一种信息安全技术的“可信计算”,即通过认证密钥、安全输入输出、内存屏蔽、封装存储、远程证明等核心技术规范实现身份验证和可靠运行,从而构建完整可信的系统。在这层意义上的可信算法,主要是指身份验证、安全保护等为内容和目标的特定算法类型,如动态加密算法、可信评价算法等。但在治理语境中,“可信算法”意在将那些对个体权益或社会福利存在现实或潜在威胁的算法予以排除,并将其限定为具备合法性和正当性且具有相当可信度的算法。此种定义并不关注算法的具体内容或目标,而是强调评估特定算法自身是否值得信任以及影响是否正面,与可信区块链、可信人工智能等概念异曲同工。随着技术专家对算法伦理的日益关注,对于“可信算法”概念的混乱认识也在趋于共识。笔者所指的可信算法也正是基于治理语境下的定义展开。
“信任”如何建立,或者说“可信”如何实现,是一个相对复杂的系统工程。算法自身的不完备以及在部署应用中导致的人与技术之间的疏离和对抗,往往会将算法推离人们的信任圈。正如哲学家Onora O’Neill所言,信任不是通过索取而得到,而是通过展示可信度来获取。对于算法而言,设计者或者部署应用者不能单方面要求人们的信任,其宣示或承诺也并不足以得到人们的信任,而是要通过向用户和公众充分展示其可信度来实现。按照David Spiegelharter的观点,对算法的信任来源两个方面,即关于算法(about the algorithm)的可信度和通过算法(by the algorithm)的可信度,前者是指开发者充分阐释算法的功能、逻辑以及评估验证的情况,使用户和公众对其充分了解,后者是指算法在实际应用中的准确、有效、可靠的水平,使用户和公众相信其有能力且负责任地解决问题。如果将算法自身的技术能力与对算法的治理状态结合来看,对算法的信任主要来源两个方面。一是增强算法技术本身的可靠性、稳定性等绩效表现,使得公众对其运行形成稳定预期和信赖;二是通过法律、行业规范、技术伦理等制度创建可信的治理环境,使得公众增加对算法技术的掌控感和影响力。概言之,可信算法既需要本体层面源于技术的可信度,又需要关系层面源于治理的可信度,由此方能获得用户和公众的信任。
面对技术的不断进化和对人类生活的深度嵌入,“可信”成为了技术社群和政策部门的关注焦点。欧盟委员会设立的人工智能高级别专家组在2019年4月发布了《可信人工智能的伦理指南》,提出可信人工智能需要在整个生命周期满足三个条件:1.合法性,即可信人工智能应当依法合规;2.道德性,即可信人工智能应当符合道德原则和价值观;3.鲁棒性(robust),即可信人工智能应当避免造成无意的损害或负面影响,并且指出人工智能应该满足七个关键要素以达到可信赖的要求,即人的能动性和监督;技术鲁棒性和安全性;隐私和数据管理;透明度;多样性、非歧视和公平性;社会和环境福利;问责机制。美国计算机学会的公共政策委员会发布了《关于算法透明和问责的声明》并提出了七项原则强调通过确保算法的透明度和可问责性以避免算法的偏见和错误。FATML也在《可问责算法原则》中指出了自动决策算法在产业界和政府的广泛应用,影响了从定价到用工甚至刑罚的各个方面,因此算法需要符合负责任、可解释、精确性、可审计性、公平性等原则的要求。以上这些政策倡议或行业指南,都是在尝试从技术或治理的层面探索对算法的规制,以实现算法的可信。
随着人类进入算法社会,算法的部署和应用将成为人类经济社会生活的常态。在此背景下,既要最大限度地发挥算法技术的积极价值,又要保证算法符合人类社会的“共同善”,这就需要我们以算法信任为基础,通过有效的算法可信控制,从技术层、应用层到治理层确保算法“可信化”。通过算法的可信控制,可以确保算法的可信度,从而有效维系算法信任,防止不可信算法的滥用导致用户损失乃至算法信任的崩溃。因此,在很大程度上,算法的可信控制应当成为算法治理的核心任务。
算法的可信控制旨在通过相应的手段或方式对算法设计、部署和应用的全流程进行规范与调整,以保证算法的可理解性、可靠性和可控性。对于技术专家而言,算法的可信控制可以通过技术手段实现。例如,南加州大学研究人员研发的DeepTrust工具可以对AI算法生成的数据和预测的信息进行验证;日益成熟的“歧视感知数据挖掘”也能够识别偏离公平伦理的算法,通过技术进路“以算法控制算法”从而实现算法可信正在成为可能。对于法律专家而言,应对算法风险并实现算法与人类社会相容的制度需求激起了法律人“规训算法”的雄心,算法规制或者算法治理日益成为法律人关注的焦点议题。通过法律进路的可信控制,即以法律制度规范算法的技术流程并调整相关主体的行为以实现算法可信,正是“以法律控制算法”的题中应有之义。然而,法律能以何种方式规制算法,从而通过制度理性约束技术理性,是按照法律进路实现算法可信控制的基础性命题。
(一)技术与法律之间:算法的技术实质与法律实质
但是,算法的法律本质仅仅只是正当程序或规范吗?当算法作为一种工具或产品,就成为了法律关系中的客体。类似于机动车致人损害的场景,机动车的控制者(司机)以及机动车的所有者(车主)对侵权损害须承担连带责任。又类似于产品责任的场景,缺陷产品的销售者和生产者须对消费者承担连带责任。抛开其内部追偿关系不论,基于对特定客体的控制、所有、销售和生产等关联,都会形成特定的法律关系并获得相应的法律评价。因此,即便算法是法律关系中的客体,设计、部署和应用相应算法的主体也会因算法执行所带来的后果受到法律的肯定或否定的评价。算法本身就是算法关系中的重要一环,从而也当然是算法法律关系中的重要一环。而一旦算法具备了主体意识和能力,就需要承担其执行所带来的法律后果,而这并不是完全不可行的。易言之,算法在法律上并非仅有程序法意义上的表达,而且在实体法上也应有其一席之地。由是观之,除了明确算法的正当程序本质之外,还可以确认算法作为算法关系的一环,无论其是作为主体抑或是客体。鉴于算法的法律实质,我们得以穿透技术的迷雾,找到对其进行法律规制的路标。
(二)算法规制的基本逻辑:法律嵌入与法律调节
法律调节算法关系,是指法律不再将算法作为直接的调整对象,而是围绕算法所创设或影响的社会关系作为关注的重点,通过调整算法相关主体的行为与责任、权利与义务而对算法实现间接控制。算法从设计到应用再到执行的整个流程涉及众多的主体,例如,算法设计者、算法应用者、用户、监管者以及公众等,这些主体基于算法这一连接点建立的社会关系可以被称作算法关系。算法的失控会造成算法关系的失衡,如算法黑箱、算法歧视等都会造成相关主体利益受损。如果说算法的高度专业、复杂和抽象导致了其难以受到法律的有效控制,那么投射在人类社会中的算法关系相对而言则更容易受到法律的规范。因此,当法律以明确且合理的权利义务框架、清晰的行为模式与法律后果对相关主体之间的关系进行有效规范,则其控制效果必然会及于算法本体。例如,算法设计者会更加审慎地设计算法,用户和公众则会通过法律赋予的权利对抗和约束算法。
(三)通过法律的可信控制
算法自身的可信度是算法信任最根本的来源,也是算法可信控制最直接的场域。算法是否可信,以及多大程度上可信,往往取决于算法本体的质量。因此,从本体维度进行算法的可信控制,即以算法本体作为直接的规制对象,通过制度约束确保算法按照可信的标准和规范进行设计和应用,是实现算法可信的基础性环节。由于算法本体的技术属性,这一维度下算法的可信控制可以遵循法律嵌入的逻辑,将可信算法的具体要求转化为具有法律约束力的技术规范,从而完成算法的可信控制。
(一)完善透明度规则
“阳光是最好的杀虫剂,灯光是最好的警察。”布兰代斯大法官这一著名论断在透明度的拥趸中广为流传。这一论断不仅可以用来倡导证券市场上的信息披露,在算法的可信控制中同样适用。一方面,与行政公开能够增强政府公信力类似,算法的透明可以使用户了解算法的逻辑,从而获得用户的信任。另一方面,透明能够对算法控制者形成有效约束,使其不能(至少不会明目张胆地)设计和部署不可信的算法。因此,建立针对算法的透明度规则,可以在主观和客观两个方面实现算法可信的效果。
算法的透明度规则,核心在于要求算法控制者披露源代码或者披露算法从输入到输出的基本逻辑。事实上,在众多关于算法治理的倡议方案中,以透明度要求打破“算法黑箱”被认为是有效规制算法的首要方案,也是实现算法可信控制的第一把钥匙。例如,《一般数据保护条例》第13条第2款(f)项要求数据控制者在利用自动化决策机制时要向数据主体提供数据画像过程中运用的逻辑。英国议会下属的人工智能特别委员会发布报告《人工智能在英国:准备、志向与能力?》也建议在安全攸关的特定场景中要求使用更加技术透明的人工智能系统,以实现更可信赖的目标。
然而,透明度要求的落实面临着两个方面的挑战。一个挑战是与算法控制者私权的平衡。对于算法控制者而言,算法往往承载着其核心竞争力,也通常被主张为商业秘密而被获得保护。因此,在对算法课以透明度要求时也不得不考虑私权与公益的平衡问题。另一个挑战则是算法的透明并不意味着被理解,即算法的高度复杂性和专业性可能会导致算法的公开沦为形式,即便是算法完全公开,用户或公众甚至有些专业人士都可能被淹没在复杂的代码或冗杂的信息之中,从而无法真正理解算法是否存在不可信的因素。面对这两大挑战,我们需要甄别基于信息的和基于解释的透明度,务实地认识透明度要求的并非公开晦涩难懂的算法代码,并落脚至“可理解”的立场来建构算法的透明度规则。例如,FAT/ML选择了折衷的透明度规则方案并建议所有算法需要发布一项社会影响声明,并在声明中详细说明算法的责任主体、向利益相关者提供通俗的解释、提示错误和不确定性的来源、提供第三方进行检查和批评的途径、阐释针对不同受众的公平考虑。这种社会影响声明不再执着于算法的完全公开,而是试图让算法以能够更好地被理解的方式实现透明。
鉴于此,在实现算法可信控制的过程中,透明度规则需要立足于使算法更易被理解的方式来构建。具体而言,算法控制者首先需要为公众获取代码或内在逻辑提供便利的渠道,使对该算法感兴趣的利益相关方能够方便地获取相关信息。其次,算法代码或算法逻辑的公开需要以容易被大众所理解的通俗表达方式予以解释,且这些解释必须是直接、简明且有效的。概言之,算法的透明度规则应当在适当尊重控制者利益的基础上,按照更加可理解的方式合理设定,使用户和公众能够摆脱机械的“鱼缸式”透明,并真正直接且有针对性地理解算法,将其作为算法在设计和应用时需要满足的合规要求,从而增进算法的可信度。
(二)推动算法伦理的法律化
由于算法在设计环节不可避免地受到人的影响,即便如何强调“技术中立”都无法否认算法本身具备着“经由设计的价值观”,算法的歧视与偏见以及其他对人类社会的挑战,往往也都是源自设计算法时的故意、疏忽以及对于伦理道德的漠视。因此,算法伦理被提出并作为约束算法按照符合人类道德观念和共同善的要求设计和应用的道德基准。可解释等道德原则。算法的伦理要求反映社会对于算法的担忧与期待。从可信算法和算法信任的具体要求来看,符合伦理要求的算法由于其本身的“善”而能够给予用户和公众更为正向的价值预期,且算法决策的伦理正当性有助于实现算法的可靠和可控,从而使得其作为设计良好的算法更易获取信任。易言之,可信算法必然是符合伦理要求的。
然而,算法的伦理要求仅限于道德上的倡议,由此而来的软性约束并不足以产生有效的控制力。尽管一旦算法违反伦理要求可能会导致舆论谴责或用户流失的后果,但主要依靠声誉机制的道德约束往往并不具备执行的刚性。因此,在算法的可信控制中,伦理要求虽然是衡量算法可信度的重要标准,但由于其道德约束的实质而导致可信控制效果不尽如人意。要解决道德约束的不足,需要借助具有强制约束力的法律来落实算法的伦理要求,实现伦理要求的法律化,即将算法伦理的具体要求嵌入法律制度,完成伦理规范的法律表达,从而将道德原则转化为法律义务,以实现更为有效的可信控制。尽管当前有些伦理要求已经嵌入法律制度,例如《一般数据保护条例》第13条至第15条要求数据控制者向数据主体提供自动化决策的逻辑并解释其影响,但现行有效法律需要更为充分和全面地将道德原则转化为法定义务。
算法伦理的法律化主要可以在两个层面得以实现:一方面是算法设计者负有按照伦理要求设计算法的法定义务;另一方面是算法的设计须遵守与伦理要求一致的法律规则。就前者而言,法律应当对算法设计者课以相应的信义义务,以约束其基于对伦理要求的充分注意来完成算法的设计过程,从而避免因设计中的故意或过失导致算法偏离伦理要求而落入不可信状态。就后者来看,法律应当设定明确且强制的技术规范,将伦理要求嵌入算法决策逻辑,以实现算法本身对于伦理要求的遵守。具体而言,可以通过强制性规范要求所有的算法均需将法律化的伦理要求作为设定条件写入主节点,偏离伦理要求的算法执行过程会因不满足触发条件而不能启动代理节点,从而以伦理要求作为衡量标准阻断不可信算法的执行,进而完成算法的可信控制。
(三)探索算法验证评估制度
相比于用户和公众的主观心态,算法是否确实可信往往取决于算法自身的客观状态,即是否可理解、可靠和可控。囿于自身专业能力和认知水平,一般用户并不能自主地完成可信算法的验证,但具有相应技术实力的利益相关方,譬如技术社群或政府部门,有能力对算法客观上的可信度进行验证和评估。然而,由于算法被作为商业秘密予以保护的通行实践,以及强制性算法验证评估制度尚付阙如,即便是在一定程度上需要保持透明,但算法仍然处于不受系统性验证评估的野蛮生长状态。这种局面显示了可信算法的实现只能依赖算法控制者的虚无承诺和用户的自我安慰,缺乏具有技术公信力和地位独立性的机构对算法是否可信进行确认。对算法进行验证评估以确认其可信度,是实现算法可信控制的重要抓手。建立针对算法可信度的验证评估制度,对于可信算法的甄别和应用殊为必要。
可信算法在技术上具备识别的可能性。从现有工程标准来看,IEEE的《推荐的软件可靠性最佳工程实践》(IEEE1633-2008)以及国家标准化委员会发布的《系统与软件的可靠性》(GB/T29832-2013)等都可以对算法的可靠性进行验证。尽管随着算法的迭代以及深度学习算法的出现,导致现有工程标准不能完全应对,但是相关标准和规范正在推进之中,相应的测试模型和评估模型也会落地。国务院在发布的《新一代人工智能发展规划》中提出:“建立人工智能算法与平台安全性测试模型及评估模型,研发人工智能算法与平台安全性测评工具集。”ISO/IEC(国际标准化组织/国际电工委员会)JTC1(第一联合技术委员会)成立的人工智能分委员会专门成立了“可信赖”工作组(WG3),开展人工智能可信度、鲁棒性评估、算法伦理等标准研制工作。通过评估算法功能实现的正确性、代码实现的正确性、目标函数的影响、训练数据集的影响、对抗性样本的影响、软硬件平台依赖的影响、环境数据的影响等可靠性指标,并验证算法退出或脱离机制是否具备和有效等可控性指标,可以得出算法是否可信的客观判断。概言之,按照相应的标准对算法的可理解性、可靠性和可控性进行验证并不存在技术上的障碍。
算法的验证评估制度的核心意旨在于针对算法设定一项接受审查的义务,即在算法投入应用前须经过有关机构按照可信度的相应标准进行验证和评估,以实现算法的可信控制。通过对算法的验证评估可以从源头上对算法进行筛查和监督,也能够为用户和公众使用算法提供可信验证的支撑和辅助。从具体实现路径上看,算法的验证评估制度需要解决以下几个问题:第一是谁来验证,是政府部门还是第三方专业机构?第二是验证评估机构是否有足够的能力查验算法的可信度?第三是验证评估结论是否构成算法可信的保证?第四是算法验证评估的程序启动是强制性还是依申请?
算法部署和执行的过程会涉及包括算法控制者和用户等主体在内的众多利益相关方,这些主体之间形成的算法关系既反映着算法对社会关系的型塑,也会在一定程度上形成对算法本体的约束。具体而言,算法相关主体的权利义务配置、责任承担方案以及受监管程度都会影响算法能否以可信状态实现。可以说,算法本体的可信度奠定了算法信任的基础,而算法关系的有效调整可以促进算法以可信状态得以部署和执行,从而成为算法信任的保障。因此,从关系维度进行算法的可信控制,即不再以算法本体而是以算法关系作为规制对象,通过法律对算法相关主体行为的激励、约束和规范来调节和平衡算法关系,从而间接地将可信要求落实到算法设计、部署和执行的全过程。
(一)明确算法权利
算法权利配置是算法治理的重要内容,也可以成为算法可信控制的有力支撑。通过向算法相关主体赋权,即确认和保障相关主体的算法权利,可以改变算法关系中的力量对比和利益结构,借助权利对抗中的制约以及权利平衡中的合作实现算法的可信控制。当前关于算法相关权利的研究与尝试正在走向成熟,算法解释权、脱离自动决策权、算法排他权、人工接管权等权利类型不断丰富和完善。一旦这些权利得到法律的认可和保护,算法相关主体在主张权利时会对算法关系中的相对方形成约束,或者在实现权利时对自身行为模式进行调适,从而在算法关系的互动中形成可信控制的实际效果。
相比于透明度要求和算法权利配置等通过事前预防的方式实现可信控制,算法问责具有典型的事后控制色彩。从不同角度进行理解,算法问责包括两方面的内涵:其一是指算法使用者或者控制者有义务报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害,系以外部监管的逻辑进行算法治理;其二是指算法相关主体就其不当行为以及算法执行中产生的损害承担相应的法律责任,即以归责或责任分配的逻辑进行算法治理。可问责是可信算法的内在要求,也是约束算法控制者的有效手段,通过问责所形成的约束机制能够引导算法控制者确保算法的可解释、可靠和可控。
目前美国纽约市、华盛顿州都出台了相应的算法问责法案,以对公共事业领域的算法决策设定相应的问责机制,即要求算法控制者报告算法合理性与避害措施的义务,并成立专业机构对算法进行审查。美国参议院目前正在讨论的《算法问责法案》将算法问责的适用范围从公共事业部门拓展到大型私人公司,并要求联邦贸易委员会制定评估“高度敏感性”算法的规则,明确对算法决策中可能存在的不当行为进行问责。这个层面的算法问责实际上是引入具备一定行政权力和专业能力的机构。例如,纽约市的自动化决策工作组以及华盛顿州的首席隐私官,作为相对独立且权威的第三方加入算法关系并对算法控制者形成制约,一旦算法偏离其预设的运行逻辑和执行原则,就会触发包括罚款在内的法律责任。通过问责机制的合理安排,算法控制者与用户之间失衡的关系将因问责主体的加入而得到调节,占据强势与主动地位的算法控制者会更加审慎地完成算法的设计、部署和应用,算法中的不可信因素也将得到控制。在具体的制度设计中,可以要求算法控制者将算法源代码、运行参量、算法逻辑等信息向法律授权的机构备案,供问责主体随时进行审计和检查,或者在算法运行出现问题后依据备案信息进行验证,若备案信息与实际情况不一致的,可以对算法控制者课以严厉处罚。
除了问责机制的设计之外,算法责任的分配也是算法问责的重要方面。民事、行政甚至刑事责任会对算法控制者形成一定的威慑,也会成为其作为理性经济人在作出行为决策时的重要考量因素。易言之,严格的法律责任会约束算法控制者的行为,避免因其故意或过失而出现的算法不可信。由于算法生命周期涉及算法设计者、算法应用者等诸多主体,不可信算法的部署及其造成的损害所产生的责任如何分配目前并未形成共识。责任形式和归责原则的不明确以及责任分配方案的模糊会减损算法责任的规制效果。事实上,在算法目前尚未真正发展到具备主体属性的情况下,存在应用风险的不可信算法可以纳入产品责任的范畴。例如,自动驾驶汽车致损可以按照产品责任的逻辑确立其责任形式和归责原则。即算法应用者与算法设计者应当按照严格责任原则对外承担连带责任,两者之间的内部责任分配应当考虑各自的过错程度,并结合其在造成算法不可信及其损害结果中的作用予以判断。除了民事责任之外,要实现算法的可信控制还需要合理地设置相应的行政责任和刑事责任,以规范和预防相关主体的故意或疏忽导致不可信算法的应用。
(三)拓展算法监管体系
目前,我国理论界探讨算法治理的主流话语体系还停留于算法权利与算法伦理,算法监管虽有提出但始终讳莫如深,其原因大抵是算法跨领域应用下监管权力的博弈以及算法技术复杂性下对监管能力的担忧。然而,尽管算法的验证评估与算法问责在一定程度上具有监管的色彩,具体而言,谁来监管以及如何监管仍有待于进一步明确。此外,仅仅明确算法相关主体的权利和义务却缺乏有效的监管执行机制,并不足以全面地实现可信控制。因此,以全局视角构建一个系统有效的监管体系对于实现算法的可信控制可以形成有力的保障,有必要在算法可信控制中进行合理的制度安排。
算法在经济社会生活各个领域的广泛应用,使得各监管部门基于行业监管职责都有对算法主张监管权力的需求。例如,金融监管部门在对智能投顾、量化交易时有必要审查算法的可信度,以确认依托算法实施的金融行为符合审慎监管和行为监管的要求。此外,算法的整个生命周期会落入不同部门的监管范围。例如,算法设计部署阶段属于软件行业而归入工信部门监管,算法执行应用中涉及网络产品和服务的安全可信而需接受网信部门的监管,算法执行的结果可能影响行业竞争格局或损害消费者合法权益的,又会引发市场监督管理部门的监管。这种多头监管的格局可能带来的监管重叠或监管真空,并不利于落实算法的可信控制,因此应该将算法监管权集中行使或者建立监管协调机制。考虑到可信算法主要是强调其可靠与可控,在本质上还是安全问题。因此,笔者建议依托网络安全法确立的国家网信部门统筹协调的网络安全监管体制实施算法的可信监管。
但由于算法技术上的复杂性导致了监管部门在识别算法不可信因素时存在能力局限,因此除了由监管部门设立专家组或充实技术力量以外,可以引入多方主体按照合作治理的机制构建适应算法监管需求的监管体系。目前各国都在尝试成立一些专业委员会来应对技术革命所带来的风险。例如,美国国家人工智能安全委员会以及纽约市自动化决策工作组等,但由于定位为咨询机构而缺乏监管授权从而难以发挥实际的监管效能。因此,有人主张设立国家算法安全委员会,或者借鉴美国食品药品管理局的模式设立一个针对算法的专家审查机构,通过技术专家的独立判断对应用前的算法进行审查,以避免不可信算法流入市场。这种模式并非新设一个监管部门,而是在具备专业独立性的机构与产业界之间形成一种合作机制。通过法律授权这类介于公私之间的专家型机构参与算法的可信控制,能够对技术不足的行政机构形成有力支持。
此外,行业自律组织和技术社群也可以在算法的可信控制中发挥巨大作用。以行业协会、学会等为代表的社会团体或组织通常以学术交流和行业合作为基本定位,这些组织虽无法定的监管权力,但也能通过章程对其成员起到一定的监督和约束作用。并且,这些行业组织相比行政机关往往更具技术优势,且因身处技术一线而更能及时全面地了解算法技术发展动态。通过法律明确其自律监管地位并赋予一定的自律监管权限,能够充分动员这些自律组织对其成员和整个行业进行监管和约束,从而发挥可信控制的功能。事实上,这类行业组织的自律监管在金融行业、律师行业并不鲜见,将其移植到算法治理领域并无不可。而技术社群尽管松散,但在针对算法的技术交流中也可能发现算法中的不可信因素,不少“极客”以及“白帽黑客”往往也可以发现算法中存在的安全隐患或者歧视偏见,这些群体能够通过揭露或举报形成社会监管力量,从而在个体层面实现事实上的算法监督,但这种社会监管同样也需要法律予以确认和保障。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
相关链接
来源:《东方法学》2021年第3期(总第81期)。转引转载请注明出处。
责任编辑:孙建伟 王柯心
关键词:可信算法 算法治理 算法本体 算法关系 制度理性 技术理性
从技术角度看,算法是为实现某个任务而构造的简单指令集,其本质是以有限、确定且有效的设定将输入转化为输出从而解决问题的数学过程。算法以数据为基础,以算力为支撑,借助在具体场景下的部署和应用实现自动化、智能化的决策。按照理想主义的技术预设,由于算法规则的确定性和客观性,算法决策通常被认为是理性、中立、高效和值得信赖的。然而,算法所呈现出的现实图景似乎偏离了这种理想预设,“算法信仰”在层出不穷的算法歧视和算法暴政面前难免沦为一厢情愿式的迷恋。在算法社会到来的前夜,我们需要再三确认:到底什么样的算法才足以让我们将决策权放心托付。
(一)算法信任与算法可信度迷思
一般而言,自然人由于认知障碍、主观倾向、身心状态和外部干扰等原因,并不总能保证其决策的理性与正确。而算法依托确定的输入输出过程,能够实现相较于自然人更为客观、理性和有效的决策。同时,借助计算机程序运行和实现的算法能够更为严格地执行既定规则和逻辑,更为海量且快速地处理决策请求,从而实现决策的一致性、即时性和普遍性。看似机械冰冷的算法,能在很大程度上弥补和消解自然人决策中的非理性、主观性和局限性,节约决策成本并优化决策效率,成为维持社会运行乃至推动人类进步的革命性力量。基于此,算法被人们依赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,由此形成了所谓的“算法信任”。例如,区块链技术因其“去中心化”而更具公信力,正是因为分布式存储、共识机制、Paxos算法、非对称加密等核心算法实现了不可篡改等技术特征,由此创造的“算法信用”对“主体信用”的补充或替代有效地解决了信息不对称下的信任问题。然而,技术特征并非信任的根本来源,人们对于算法的信任倾向以及算法自身的可信度是构建“算法信任”缺一不可的两个方面。易言之,人们选择相信算法并不意味着算法自身就值得被信任。
即便我们有理由相信算法能够按照预设的过程得以客观地执行,但由于其设计、部署和应用难以避免地会受到人类行为的影响,加上技术不完备的客观规律,算法自身的可信度会大打折扣,从而形成一种“迷思”,即对算法可信度的怀疑。
算法信任是算法社会的基础,而信任必须建立在算法可信度之上。即便用户可能会因为主观上的盲目性而选择信任算法,但算法自身可信度的不足会客观上消解这种信任。因此,算法可信度才是确立和维系算法信任的根本。从前文分析看,由于算法可信度迷思的存在,当我们面对“算法是否值得信任”的问题时并不总是能够得到肯定的答案。然而,不论我们目前在多大程度上不信任算法,都不得不承认算法在当下与未来必将发挥着重要作用。任何因噎废食地抗拒算法社会的到来,都是不理智且不现实的。尽管算法并不总是值得被信任,但也不宜全盘否定算法的积极功能,无视那些具备可信度的算法为经济社会更加高效地运行提供的支撑。基于这个前提,我们可以得出一个初步结论:我们不能也不应拒绝算法,但是我们可以规训算法;我们需要算法,但我们真正需要的是可以信任的算法,即可信算法。
(二)可信算法及其内在要求
笔者所称的“可信算法”并非严格意义上的技术术语,而是侧重于算法“可信任”状态或特征的价值判断。由于话语体系的差异,有必要对相关概念进行区分以避免混淆或误解。在技术语境,“可信”源自作为一种信息安全技术的“可信计算”,即通过认证密钥、安全输入输出、内存屏蔽、封装存储、远程证明等核心技术规范实现身份验证和可靠运行,从而构建完整可信的系统。在这层意义上的可信算法,主要是指身份验证、安全保护等为内容和目标的特定算法类型,如动态加密算法、可信评价算法等。但在治理语境中,“可信算法”意在将那些对个体权益或社会福利存在现实或潜在威胁的算法予以排除,并将其限定为具备合法性和正当性且具有相当可信度的算法。此种定义并不关注算法的具体内容或目标,而是强调评估特定算法自身是否值得信任以及影响是否正面,与可信区块链、可信人工智能等概念异曲同工。随着技术专家对算法伦理的日益关注,对于“可信算法”概念的混乱认识也在趋于共识。笔者所指的可信算法也正是基于治理语境下的定义展开。
“信任”如何建立,或者说“可信”如何实现,是一个相对复杂的系统工程。算法自身的不完备以及在部署应用中导致的人与技术之间的疏离和对抗,往往会将算法推离人们的信任圈。正如哲学家Onora O’Neill所言,信任不是通过索取而得到,而是通过展示可信度来获取。对于算法而言,设计者或者部署应用者不能单方面要求人们的信任,其宣示或承诺也并不足以得到人们的信任,而是要通过向用户和公众充分展示其可信度来实现。按照David Spiegelharter的观点,对算法的信任来源两个方面,即关于算法(about the algorithm)的可信度和通过算法(by the algorithm)的可信度,前者是指开发者充分阐释算法的功能、逻辑以及评估验证的情况,使用户和公众对其充分了解,后者是指算法在实际应用中的准确、有效、可靠的水平,使用户和公众相信其有能力且负责任地解决问题。如果将算法自身的技术能力与对算法的治理状态结合来看,对算法的信任主要来源两个方面。一是增强算法技术本身的可靠性、稳定性等绩效表现,使得公众对其运行形成稳定预期和信赖;二是通过法律、行业规范、技术伦理等制度创建可信的治理环境,使得公众增加对算法技术的掌控感和影响力。概言之,可信算法既需要本体层面源于技术的可信度,又需要关系层面源于治理的可信度,由此方能获得用户和公众的信任。
面对技术的不断进化和对人类生活的深度嵌入,“可信”成为了技术社群和政策部门的关注焦点。欧盟委员会设立的人工智能高级别专家组在2019年4月发布了《可信人工智能的伦理指南》,提出可信人工智能需要在整个生命周期满足三个条件:1.合法性,即可信人工智能应当依法合规;2.道德性,即可信人工智能应当符合道德原则和价值观;3.鲁棒性(robust),即可信人工智能应当避免造成无意的损害或负面影响,并且指出人工智能应该满足七个关键要素以达到可信赖的要求,即人的能动性和监督;技术鲁棒性和安全性;隐私和数据管理;透明度;多样性、非歧视和公平性;社会和环境福利;问责机制。美国计算机学会的公共政策委员会发布了《关于算法透明和问责的声明》并提出了七项原则强调通过确保算法的透明度和可问责性以避免算法的偏见和错误。FATML也在《可问责算法原则》中指出了自动决策算法在产业界和政府的广泛应用,影响了从定价到用工甚至刑罚的各个方面,因此算法需要符合负责任、可解释、精确性、可审计性、公平性等原则的要求。以上这些政策倡议或行业指南,都是在尝试从技术或治理的层面探索对算法的规制,以实现算法的可信。
随着人类进入算法社会,算法的部署和应用将成为人类经济社会生活的常态。在此背景下,既要最大限度地发挥算法技术的积极价值,又要保证算法符合人类社会的“共同善”,这就需要我们以算法信任为基础,通过有效的算法可信控制,从技术层、应用层到治理层确保算法“可信化”。通过算法的可信控制,可以确保算法的可信度,从而有效维系算法信任,防止不可信算法的滥用导致用户损失乃至算法信任的崩溃。因此,在很大程度上,算法的可信控制应当成为算法治理的核心任务。
算法的可信控制旨在通过相应的手段或方式对算法设计、部署和应用的全流程进行规范与调整,以保证算法的可理解性、可靠性和可控性。对于技术专家而言,算法的可信控制可以通过技术手段实现。例如,南加州大学研究人员研发的DeepTrust工具可以对AI算法生成的数据和预测的信息进行验证;日益成熟的“歧视感知数据挖掘”也能够识别偏离公平伦理的算法,通过技术进路“以算法控制算法”从而实现算法可信正在成为可能。对于法律专家而言,应对算法风险并实现算法与人类社会相容的制度需求激起了法律人“规训算法”的雄心,算法规制或者算法治理日益成为法律人关注的焦点议题。通过法律进路的可信控制,即以法律制度规范算法的技术流程并调整相关主体的行为以实现算法可信,正是“以法律控制算法”的题中应有之义。然而,法律能以何种方式规制算法,从而通过制度理性约束技术理性,是按照法律进路实现算法可信控制的基础性命题。
(一)技术与法律之间:算法的技术实质与法律实质
但是,算法的法律本质仅仅只是正当程序或规范吗?当算法作为一种工具或产品,就成为了法律关系中的客体。类似于机动车致人损害的场景,机动车的控制者(司机)以及机动车的所有者(车主)对侵权损害须承担连带责任。又类似于产品责任的场景,缺陷产品的销售者和生产者须对消费者承担连带责任。抛开其内部追偿关系不论,基于对特定客体的控制、所有、销售和生产等关联,都会形成特定的法律关系并获得相应的法律评价。因此,即便算法是法律关系中的客体,设计、部署和应用相应算法的主体也会因算法执行所带来的后果受到法律的肯定或否定的评价。算法本身就是算法关系中的重要一环,从而也当然是算法法律关系中的重要一环。而一旦算法具备了主体意识和能力,就需要承担其执行所带来的法律后果,而这并不是完全不可行的。易言之,算法在法律上并非仅有程序法意义上的表达,而且在实体法上也应有其一席之地。由是观之,除了明确算法的正当程序本质之外,还可以确认算法作为算法关系的一环,无论其是作为主体抑或是客体。鉴于算法的法律实质,我们得以穿透技术的迷雾,找到对其进行法律规制的路标。
(二)算法规制的基本逻辑:法律嵌入与法律调节
法律调节算法关系,是指法律不再将算法作为直接的调整对象,而是围绕算法所创设或影响的社会关系作为关注的重点,通过调整算法相关主体的行为与责任、权利与义务而对算法实现间接控制。算法从设计到应用再到执行的整个流程涉及众多的主体,例如,算法设计者、算法应用者、用户、监管者以及公众等,这些主体基于算法这一连接点建立的社会关系可以被称作算法关系。算法的失控会造成算法关系的失衡,如算法黑箱、算法歧视等都会造成相关主体利益受损。如果说算法的高度专业、复杂和抽象导致了其难以受到法律的有效控制,那么投射在人类社会中的算法关系相对而言则更容易受到法律的规范。因此,当法律以明确且合理的权利义务框架、清晰的行为模式与法律后果对相关主体之间的关系进行有效规范,则其控制效果必然会及于算法本体。例如,算法设计者会更加审慎地设计算法,用户和公众则会通过法律赋予的权利对抗和约束算法。
(三)通过法律的可信控制
算法自身的可信度是算法信任最根本的来源,也是算法可信控制最直接的场域。算法是否可信,以及多大程度上可信,往往取决于算法本体的质量。因此,从本体维度进行算法的可信控制,即以算法本体作为直接的规制对象,通过制度约束确保算法按照可信的标准和规范进行设计和应用,是实现算法可信的基础性环节。由于算法本体的技术属性,这一维度下算法的可信控制可以遵循法律嵌入的逻辑,将可信算法的具体要求转化为具有法律约束力的技术规范,从而完成算法的可信控制。
(一)完善透明度规则
“阳光是最好的杀虫剂,灯光是最好的警察。”布兰代斯大法官这一著名论断在透明度的拥趸中广为流传。这一论断不仅可以用来倡导证券市场上的信息披露,在算法的可信控制中同样适用。一方面,与行政公开能够增强政府公信力类似,算法的透明可以使用户了解算法的逻辑,从而获得用户的信任。另一方面,透明能够对算法控制者形成有效约束,使其不能(至少不会明目张胆地)设计和部署不可信的算法。因此,建立针对算法的透明度规则,可以在主观和客观两个方面实现算法可信的效果。
算法的透明度规则,核心在于要求算法控制者披露源代码或者披露算法从输入到输出的基本逻辑。事实上,在众多关于算法治理的倡议方案中,以透明度要求打破“算法黑箱”被认为是有效规制算法的首要方案,也是实现算法可信控制的第一把钥匙。例如,《一般数据保护条例》第13条第2款(f)项要求数据控制者在利用自动化决策机制时要向数据主体提供数据画像过程中运用的逻辑。英国议会下属的人工智能特别委员会发布报告《人工智能在英国:准备、志向与能力?》也建议在安全攸关的特定场景中要求使用更加技术透明的人工智能系统,以实现更可信赖的目标。
然而,透明度要求的落实面临着两个方面的挑战。一个挑战是与算法控制者私权的平衡。对于算法控制者而言,算法往往承载着其核心竞争力,也通常被主张为商业秘密而被获得保护。因此,在对算法课以透明度要求时也不得不考虑私权与公益的平衡问题。另一个挑战则是算法的透明并不意味着被理解,即算法的高度复杂性和专业性可能会导致算法的公开沦为形式,即便是算法完全公开,用户或公众甚至有些专业人士都可能被淹没在复杂的代码或冗杂的信息之中,从而无法真正理解算法是否存在不可信的因素。面对这两大挑战,我们需要甄别基于信息的和基于解释的透明度,务实地认识透明度要求的并非公开晦涩难懂的算法代码,并落脚至“可理解”的立场来建构算法的透明度规则。例如,FAT/ML选择了折衷的透明度规则方案并建议所有算法需要发布一项社会影响声明,并在声明中详细说明算法的责任主体、向利益相关者提供通俗的解释、提示错误和不确定性的来源、提供第三方进行检查和批评的途径、阐释针对不同受众的公平考虑。这种社会影响声明不再执着于算法的完全公开,而是试图让算法以能够更好地被理解的方式实现透明。
鉴于此,在实现算法可信控制的过程中,透明度规则需要立足于使算法更易被理解的方式来构建。具体而言,算法控制者首先需要为公众获取代码或内在逻辑提供便利的渠道,使对该算法感兴趣的利益相关方能够方便地获取相关信息。其次,算法代码或算法逻辑的公开需要以容易被大众所理解的通俗表达方式予以解释,且这些解释必须是直接、简明且有效的。概言之,算法的透明度规则应当在适当尊重控制者利益的基础上,按照更加可理解的方式合理设定,使用户和公众能够摆脱机械的“鱼缸式”透明,并真正直接且有针对性地理解算法,将其作为算法在设计和应用时需要满足的合规要求,从而增进算法的可信度。
(二)推动算法伦理的法律化
由于算法在设计环节不可避免地受到人的影响,即便如何强调“技术中立”都无法否认算法本身具备着“经由设计的价值观”,算法的歧视与偏见以及其他对人类社会的挑战,往往也都是源自设计算法时的故意、疏忽以及对于伦理道德的漠视。因此,算法伦理被提出并作为约束算法按照符合人类道德观念和共同善的要求设计和应用的道德基准。可解释等道德原则。算法的伦理要求反映社会对于算法的担忧与期待。从可信算法和算法信任的具体要求来看,符合伦理要求的算法由于其本身的“善”而能够给予用户和公众更为正向的价值预期,且算法决策的伦理正当性有助于实现算法的可靠和可控,从而使得其作为设计良好的算法更易获取信任。易言之,可信算法必然是符合伦理要求的。
然而,算法的伦理要求仅限于道德上的倡议,由此而来的软性约束并不足以产生有效的控制力。尽管一旦算法违反伦理要求可能会导致舆论谴责或用户流失的后果,但主要依靠声誉机制的道德约束往往并不具备执行的刚性。因此,在算法的可信控制中,伦理要求虽然是衡量算法可信度的重要标准,但由于其道德约束的实质而导致可信控制效果不尽如人意。要解决道德约束的不足,需要借助具有强制约束力的法律来落实算法的伦理要求,实现伦理要求的法律化,即将算法伦理的具体要求嵌入法律制度,完成伦理规范的法律表达,从而将道德原则转化为法律义务,以实现更为有效的可信控制。尽管当前有些伦理要求已经嵌入法律制度,例如《一般数据保护条例》第13条至第15条要求数据控制者向数据主体提供自动化决策的逻辑并解释其影响,但现行有效法律需要更为充分和全面地将道德原则转化为法定义务。
算法伦理的法律化主要可以在两个层面得以实现:一方面是算法设计者负有按照伦理要求设计算法的法定义务;另一方面是算法的设计须遵守与伦理要求一致的法律规则。就前者而言,法律应当对算法设计者课以相应的信义义务,以约束其基于对伦理要求的充分注意来完成算法的设计过程,从而避免因设计中的故意或过失导致算法偏离伦理要求而落入不可信状态。就后者来看,法律应当设定明确且强制的技术规范,将伦理要求嵌入算法决策逻辑,以实现算法本身对于伦理要求的遵守。具体而言,可以通过强制性规范要求所有的算法均需将法律化的伦理要求作为设定条件写入主节点,偏离伦理要求的算法执行过程会因不满足触发条件而不能启动代理节点,从而以伦理要求作为衡量标准阻断不可信算法的执行,进而完成算法的可信控制。
(三)探索算法验证评估制度
相比于用户和公众的主观心态,算法是否确实可信往往取决于算法自身的客观状态,即是否可理解、可靠和可控。囿于自身专业能力和认知水平,一般用户并不能自主地完成可信算法的验证,但具有相应技术实力的利益相关方,譬如技术社群或政府部门,有能力对算法客观上的可信度进行验证和评估。然而,由于算法被作为商业秘密予以保护的通行实践,以及强制性算法验证评估制度尚付阙如,即便是在一定程度上需要保持透明,但算法仍然处于不受系统性验证评估的野蛮生长状态。这种局面显示了可信算法的实现只能依赖算法控制者的虚无承诺和用户的自我安慰,缺乏具有技术公信力和地位独立性的机构对算法是否可信进行确认。对算法进行验证评估以确认其可信度,是实现算法可信控制的重要抓手。建立针对算法可信度的验证评估制度,对于可信算法的甄别和应用殊为必要。
可信算法在技术上具备识别的可能性。从现有工程标准来看,IEEE的《推荐的软件可靠性最佳工程实践》(IEEE1633-2008)以及国家标准化委员会发布的《系统与软件的可靠性》(GB/T29832-2013)等都可以对算法的可靠性进行验证。尽管随着算法的迭代以及深度学习算法的出现,导致现有工程标准不能完全应对,但是相关标准和规范正在推进之中,相应的测试模型和评估模型也会落地。国务院在发布的《新一代人工智能发展规划》中提出:“建立人工智能算法与平台安全性测试模型及评估模型,研发人工智能算法与平台安全性测评工具集。”ISO/IEC(国际标准化组织/国际电工委员会)JTC1(第一联合技术委员会)成立的人工智能分委员会专门成立了“可信赖”工作组(WG3),开展人工智能可信度、鲁棒性评估、算法伦理等标准研制工作。通过评估算法功能实现的正确性、代码实现的正确性、目标函数的影响、训练数据集的影响、对抗性样本的影响、软硬件平台依赖的影响、环境数据的影响等可靠性指标,并验证算法退出或脱离机制是否具备和有效等可控性指标,可以得出算法是否可信的客观判断。概言之,按照相应的标准对算法的可理解性、可靠性和可控性进行验证并不存在技术上的障碍。
算法的验证评估制度的核心意旨在于针对算法设定一项接受审查的义务,即在算法投入应用前须经过有关机构按照可信度的相应标准进行验证和评估,以实现算法的可信控制。通过对算法的验证评估可以从源头上对算法进行筛查和监督,也能够为用户和公众使用算法提供可信验证的支撑和辅助。从具体实现路径上看,算法的验证评估制度需要解决以下几个问题:第一是谁来验证,是政府部门还是第三方专业机构?第二是验证评估机构是否有足够的能力查验算法的可信度?第三是验证评估结论是否构成算法可信的保证?第四是算法验证评估的程序启动是强制性还是依申请?
算法部署和执行的过程会涉及包括算法控制者和用户等主体在内的众多利益相关方,这些主体之间形成的算法关系既反映着算法对社会关系的型塑,也会在一定程度上形成对算法本体的约束。具体而言,算法相关主体的权利义务配置、责任承担方案以及受监管程度都会影响算法能否以可信状态实现。可以说,算法本体的可信度奠定了算法信任的基础,而算法关系的有效调整可以促进算法以可信状态得以部署和执行,从而成为算法信任的保障。因此,从关系维度进行算法的可信控制,即不再以算法本体而是以算法关系作为规制对象,通过法律对算法相关主体行为的激励、约束和规范来调节和平衡算法关系,从而间接地将可信要求落实到算法设计、部署和执行的全过程。
(一)明确算法权利
算法权利配置是算法治理的重要内容,也可以成为算法可信控制的有力支撑。通过向算法相关主体赋权,即确认和保障相关主体的算法权利,可以改变算法关系中的力量对比和利益结构,借助权利对抗中的制约以及权利平衡中的合作实现算法的可信控制。当前关于算法相关权利的研究与尝试正在走向成熟,算法解释权、脱离自动决策权、算法排他权、人工接管权等权利类型不断丰富和完善。一旦这些权利得到法律的认可和保护,算法相关主体在主张权利时会对算法关系中的相对方形成约束,或者在实现权利时对自身行为模式进行调适,从而在算法关系的互动中形成可信控制的实际效果。
相比于透明度要求和算法权利配置等通过事前预防的方式实现可信控制,算法问责具有典型的事后控制色彩。从不同角度进行理解,算法问责包括两方面的内涵:其一是指算法使用者或者控制者有义务报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害,系以外部监管的逻辑进行算法治理;其二是指算法相关主体就其不当行为以及算法执行中产生的损害承担相应的法律责任,即以归责或责任分配的逻辑进行算法治理。可问责是可信算法的内在要求,也是约束算法控制者的有效手段,通过问责所形成的约束机制能够引导算法控制者确保算法的可解释、可靠和可控。
目前美国纽约市、华盛顿州都出台了相应的算法问责法案,以对公共事业领域的算法决策设定相应的问责机制,即要求算法控制者报告算法合理性与避害措施的义务,并成立专业机构对算法进行审查。美国参议院目前正在讨论的《算法问责法案》将算法问责的适用范围从公共事业部门拓展到大型私人公司,并要求联邦贸易委员会制定评估“高度敏感性”算法的规则,明确对算法决策中可能存在的不当行为进行问责。这个层面的算法问责实际上是引入具备一定行政权力和专业能力的机构。例如,纽约市的自动化决策工作组以及华盛顿州的首席隐私官,作为相对独立且权威的第三方加入算法关系并对算法控制者形成制约,一旦算法偏离其预设的运行逻辑和执行原则,就会触发包括罚款在内的法律责任。通过问责机制的合理安排,算法控制者与用户之间失衡的关系将因问责主体的加入而得到调节,占据强势与主动地位的算法控制者会更加审慎地完成算法的设计、部署和应用,算法中的不可信因素也将得到控制。在具体的制度设计中,可以要求算法控制者将算法源代码、运行参量、算法逻辑等信息向法律授权的机构备案,供问责主体随时进行审计和检查,或者在算法运行出现问题后依据备案信息进行验证,若备案信息与实际情况不一致的,可以对算法控制者课以严厉处罚。
除了问责机制的设计之外,算法责任的分配也是算法问责的重要方面。民事、行政甚至刑事责任会对算法控制者形成一定的威慑,也会成为其作为理性经济人在作出行为决策时的重要考量因素。易言之,严格的法律责任会约束算法控制者的行为,避免因其故意或过失而出现的算法不可信。由于算法生命周期涉及算法设计者、算法应用者等诸多主体,不可信算法的部署及其造成的损害所产生的责任如何分配目前并未形成共识。责任形式和归责原则的不明确以及责任分配方案的模糊会减损算法责任的规制效果。事实上,在算法目前尚未真正发展到具备主体属性的情况下,存在应用风险的不可信算法可以纳入产品责任的范畴。例如,自动驾驶汽车致损可以按照产品责任的逻辑确立其责任形式和归责原则。即算法应用者与算法设计者应当按照严格责任原则对外承担连带责任,两者之间的内部责任分配应当考虑各自的过错程度,并结合其在造成算法不可信及其损害结果中的作用予以判断。除了民事责任之外,要实现算法的可信控制还需要合理地设置相应的行政责任和刑事责任,以规范和预防相关主体的故意或疏忽导致不可信算法的应用。
(三)拓展算法监管体系
目前,我国理论界探讨算法治理的主流话语体系还停留于算法权利与算法伦理,算法监管虽有提出但始终讳莫如深,其原因大抵是算法跨领域应用下监管权力的博弈以及算法技术复杂性下对监管能力的担忧。然而,尽管算法的验证评估与算法问责在一定程度上具有监管的色彩,具体而言,谁来监管以及如何监管仍有待于进一步明确。此外,仅仅明确算法相关主体的权利和义务却缺乏有效的监管执行机制,并不足以全面地实现可信控制。因此,以全局视角构建一个系统有效的监管体系对于实现算法的可信控制可以形成有力的保障,有必要在算法可信控制中进行合理的制度安排。
算法在经济社会生活各个领域的广泛应用,使得各监管部门基于行业监管职责都有对算法主张监管权力的需求。例如,金融监管部门在对智能投顾、量化交易时有必要审查算法的可信度,以确认依托算法实施的金融行为符合审慎监管和行为监管的要求。此外,算法的整个生命周期会落入不同部门的监管范围。例如,算法设计部署阶段属于软件行业而归入工信部门监管,算法执行应用中涉及网络产品和服务的安全可信而需接受网信部门的监管,算法执行的结果可能影响行业竞争格局或损害消费者合法权益的,又会引发市场监督管理部门的监管。这种多头监管的格局可能带来的监管重叠或监管真空,并不利于落实算法的可信控制,因此应该将算法监管权集中行使或者建立监管协调机制。考虑到可信算法主要是强调其可靠与可控,在本质上还是安全问题。因此,笔者建议依托网络安全法确立的国家网信部门统筹协调的网络安全监管体制实施算法的可信监管。
但由于算法技术上的复杂性导致了监管部门在识别算法不可信因素时存在能力局限,因此除了由监管部门设立专家组或充实技术力量以外,可以引入多方主体按照合作治理的机制构建适应算法监管需求的监管体系。目前各国都在尝试成立一些专业委员会来应对技术革命所带来的风险。例如,美国国家人工智能安全委员会以及纽约市自动化决策工作组等,但由于定位为咨询机构而缺乏监管授权从而难以发挥实际的监管效能。因此,有人主张设立国家算法安全委员会,或者借鉴美国食品药品管理局的模式设立一个针对算法的专家审查机构,通过技术专家的独立判断对应用前的算法进行审查,以避免不可信算法流入市场。这种模式并非新设一个监管部门,而是在具备专业独立性的机构与产业界之间形成一种合作机制。通过法律授权这类介于公私之间的专家型机构参与算法的可信控制,能够对技术不足的行政机构形成有力支持。
此外,行业自律组织和技术社群也可以在算法的可信控制中发挥巨大作用。以行业协会、学会等为代表的社会团体或组织通常以学术交流和行业合作为基本定位,这些组织虽无法定的监管权力,但也能通过章程对其成员起到一定的监督和约束作用。并且,这些行业组织相比行政机关往往更具技术优势,且因身处技术一线而更能及时全面地了解算法技术发展动态。通过法律明确其自律监管地位并赋予一定的自律监管权限,能够充分动员这些自律组织对其成员和整个行业进行监管和约束,从而发挥可信控制的功能。事实上,这类行业组织的自律监管在金融行业、律师行业并不鲜见,将其移植到算法治理领域并无不可。而技术社群尽管松散,但在针对算法的技术交流中也可能发现算法中的不可信因素,不少“极客”以及“白帽黑客”往往也可以发现算法中存在的安全隐患或者歧视偏见,这些群体能够通过揭露或举报形成社会监管力量,从而在个体层面实现事实上的算法监督,但这种社会监管同样也需要法律予以确认和保障。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
相关链接
来源:《东方法学》2021年第3期(总第81期)。转引转载请注明出处。
责任编辑:孙建伟 王柯心