• 美文
  • 文章
  • 散文
  • 日记
  • 诗歌
  • 小说
  • 故事
  • 句子
  • 作文
  • 签名
  • 祝福语
  • 情书
  • 范文
  • 读后感
  • 文学百科
  • 当前位置: 柠檬阅读网 > 范文 > 正文

    算法伦理审查的逻辑认知及实践路径

    时间:2023-04-11 08:35:04 来源:柠檬阅读网 本文已影响 柠檬阅读网手机站

    张 旺

    (中共湖南省委党校 科技与生态文明教研部,湖南 长沙 410006)

    “风险社会是一个高度技术化的社会,科学技术的高速发展既是风险社会的特征,也是风险社会的成因”[1]。人工智能技术的广泛应用,给人们生产生活的诸多领域带来了颠覆性变革,推进了方式流程的自动化、智能化进度,而且在很多细化领域可以用于规避风险、提升安全系数。如在网络安全领域,AI网络安全系统可以将识别和消除网络攻击的平均时间从101天减少到几个小时[2]。伴随人工智能技术的快速发展,其赋能的应用场景越来越多,算法作为人工智能技术的重要基石之一,重要性不言而喻,但其带来的不确定性和不可控性也日益增多,产生了算法偏差、算法黑箱、算法垄断等诸多风险,这些风险辐射到政治、经济、科技等诸多领域,引发了公众对算法风险问题的恐慌焦虑。

    近年来,学术界对算法风险的伦理反思逐步深入,涵盖哲学、管理学、传播学等多学科领域,研究成果主要聚焦算法本体、治理向度及监管审查等方面。

    第一,就算法本体的审视向度而言,着重从算法设计中存在的伦理问题探讨算法风险与设计者之间的逻辑关联。李伦、孙保学(2018)认为,人工智能研发者和应用者应当使人工智能的设计合乎道德,避免恶意设计,并确保人工智能的善用,使之造福人类社会,同时提出人工智能伦理研究包括人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理四个维度。蓝江(2018)探讨了人工智能的“电子人格”和波兰尼悖论,分析了人工智能的伦理主体反思问题。苏令银(2018)探讨了人工智能道德主体争论的主要分歧,以及人工智能道德主体和道德责任问题。段伟文(2017)结合有限自主与交互智能体的概念,阐释了人工智能伦理研究与相关伦理规范和标准。孙伟平(2017)认为人工智能应及早确定其价值原则,从而确保对这一新技术行使人类表决权。徐英瑾(2017)探讨了人工智能技术与武器的结合可能导致的伦理后果,认为人工智能与武器系统的结合反而会增加未来战争的伦理指数。孟伟、杨之林(2018)从现象学伦理学的新视角探讨了人工智能的伦理难题,指出人工智能技术的一般性伦理问题指向技术设计和使用等主客体层面,人工智能技术的特殊伦理问题则指向智能体可能具有的伦理自主性。

    第二,就算法风险的治理向度而言,主要从算法风险的伦理治理角度出发,探讨伦理治理的可行性和必要性。算法风险作为一种具有鲜明特征的“现代风险”,学者从众多角度展开了丰富研究。陈伟光(2017)认为,人工智能治理既是其技术和运用发展到一定阶段的必然结果,又是对其研究、开发、生产和运用过程中可能会出现的公共安全、道德伦理等问题进行协调、处理、监管和规范的过程。杜严勇(2017)探讨了人工智能自反性伦理治理框架,并分析了标准模型、改进的标准模型、咨询模型以及共建模型等四种治理模型。闫坤如(2018)认为,人工智能的发展可能引发责任伦理冲突及风险的社会扩大等伦理问题,只有规约智能机器设计者和使用者的行为,才能有效保障智能机器与系统的使用安全。孙保学(2019)从算法的自主性特征、应用性场景和归责性困境三个方面,对算法伦理风险进行了深刻分析。张欣(2019)探讨了算法危机的三重特征,阐释了算法治理的三种范式,并就实现算法信任提出了建议主张。陈思(2020)在系统分析智能社会技术异化的基础上,提出了算法治理的可行性进路。

    第三,多学科视域下的算法风险治理多层次性研究。学者们从各种特定视角审视探讨了算法风险伦理问题,如有些学者侧重从算法风险特定属性包括价值层面探讨算法的设计风险:杨学科(2019)认为,算法歧视技术治理可在多样性加入、透明度、问责制上着手;
    还有学者从场景层面探讨算法的应用风险:如姜野、李拥军(2019)以社会信用体系建设为场景,提出了“算法解释权”的概念;
    另外还有学者从操作层面探讨算法的监管风险:卜素(2019)针对“算法歧视”问题,认为应当基于禁止歧视或平等保护之目的建立对人工智能算法的伦理审查标准体系。郭林生、李小燕(2020)提出了建立算法设计者道德责任、价值敏感性设计以及算法适用法律规范的建构进路。

    上述研究视角,建构起了算法风险与伦理道德之间的逻辑关联、作用冲突、价值理念等,诠释了算法风险的伦理治理路径。然而,在一个相对认同的伦理框架下,如何从道德阈限的角度表达算法风险的影响,推动算法的道德问责和伦理审查,仍然是一个亟须深入探讨的重要问题。本文旨在上述专业视角研究的基础上,分析阐释算法伦理的负责任设计与审查,以算法风险的道德阈限为前提,探讨算法问责及伦理审查机制的建构机理与作用发挥,进而实现一定意义上的算法“公平”。

    德国伦理学家汉斯·约纳斯把“我们借助高科技而踏入的集体实践的新大陆”称作伦理学的“无人区”和“伦理学的真空地带”[3]。构建具有伦理行为的人工智能,使得算法以一种道德上负责任的方式运行,是推动算法道德问责的前提条件。技术进步应始终以人道为中心,考虑到伦理方面,特别是安全、问责、经济繁荣和个人权利。当技术出错时,毫无疑问它将不可避免地发生,一些关于伦理设计和政策的前瞻性思考可以帮助引导技术的发展,从而使我们所有人都受益匪浅。甚至算法在原有的道德规范嵌入基础上,不断学习新的道德规范,进而不断增强其道德能力水平,在风险来临之际,作出更为合理的道德选择。

    (一)算法的道德承载

    “风险的确立就是:伦理,附带包括哲学、文化和政治,在现代化的核心领域,亦即在经济、自然科学和技术学科等领域复活了。”[4]人工智能会给人类带来伦理风险。伦理风险主要包括两个方面,一是人类自身契约风险,另一个是人类与人工智能订立契约的风险[5]。这种伦理风险的外在表征,是算法自身承载道德的客观显现,其道德水平高低一定程度上取决于我们对于人工智能算法的信任阈值有多高。算法既然不可避免地体现人的主观能动性,便带有一定取向的道德观念,或善或恶,或理性或偏见,终究体现着道德层面的价值指向。

    算法增加了人与机器之间的道德关联,俨然成为重要的生产工具,推动人与机器的交互作用。机器人即使不应被看作独立的行动者,也应被看作构成性的道德要素。它可以根据所获得的信息改变判断,并且通过与人互动,产生在道德上的或好或坏的后果。机器人作为伦理网络的参与者,它的设计和使用本身就不再是中立的,而是承载着一定的道德价值。算法问责就是要做到使算法的设计者和运营商成为算法归责的真正主体,评估算法对个人隐私、信息安全、歧视性后果方面的风险,并对算法结果承担相应的责任。

    (二)算法的责任归属

    “责任”是一个正在被广泛使用具有广泛含义的概念。责任伦理也是随着应用伦理学兴起而逐渐发展并流行的新型伦理学概念,也被称为科技时代的新伦理[6]。人们可以将责任原则理解为社会历史的一个里程碑。这个里程碑从20世纪80年代社会经济、核能和生物医学技术的生存危机的角度,记录了社会的自然观、技术观和自我认识,并且将其视为对哲学、伦理学和公众社会的挑战。人类从算法中获取了巨大利益,但算法可能会被别有用心者滥用,或者在某些领域呈现出人类无法预知、甚至无法管控的风险危机,需要我们设置一个具有科学责任权重分配的伦理框架。责任归属作为伦理规约的重要因素,在算法风险规避途径中占有重要地位。如何更好地划分算法设计使用的责任区间,架构基于责任的伦理框架,是提升风险规避效果的重要路径。

    也有学者将人工智能与机器人的伦理研究分为了四个进路,其中便涵盖凸显主体责任的责任伦理研究。这类研究的出发点是强调人类主体特别是设计者和控制者在人工智能与机器人的研究和创新中的责任——优先考虑公众利益和人类福祉、减少其危害与风险以及对后果负责等。单单就责任要素而言,算法风险伦理规范的责任归属有其特定的范围和维度。依据群体划分,这种责任可能体现在两个方面,一方面是算法设计者、使用者应当担负的重要责任,另一方面是AI智能体应承担的责任,或者说如何赋予智能体承担相应责任。依据主要环节划分,责任归属则体现在人工智能设计阶段的伦理责任嵌入和人工智能体的伦理责任监管,即所谓的“前端嵌入”与“后端规约”。在多重维度赋予算法的责任归属,架构算法风险伦理规范框架,能够有效缓解可能因算法黑箱不透明造成的责任缺位,是形成公平性、透明性和可解释性伦理规范机制的重要举措。

    “主体责任的缺失是高技术伦理困境的源头”[7]。当前,各方致力于探索完善人工智能技术发展的伦理原则,并相继提出了各具特色的规范守则,其中最为紧要的两大原则便是“人类利益原则”和“责任原则”,这种“人本+责任”的伦理原则也客观凸显了责任要素在风险规避中发挥的重要作用。虽然算法伦理问题与责任归属有着密切关系,而且责任这一要素在很大程度上影响算法伦理规范的可接受度,但如何科学界定并明确责任归属尚在完善之中。算法带来的风险需要从伦理层面进行补充规范,这个规约机制是基于自愿、共识和负责任基础之上的伦理审视。虽然各国和一些人工智能领域的龙头企业制定了各类伦理守则,但当前特定的道德解决方案在概念上仍然存在模糊性,缺少必要的追责执行机制。因此,建立一个权责明晰、可解释、可信任的伦理道德框架显得尤为重要,这种较为合理的问责制既能够进一步明确道德责任归属,同时又能增加人工智能技术应用的透明度,对于合理规避算法风险至关重要。

    (三)算法的伦理审查

    有学者建议由专门的监管机构根据某些规则和标准在人工智能系统审批认证前进行测试,测试完成后,人工智能的开发者再向监管机构提出审批认证申请。监管机构的主要工作是判断人工智能系统是否符合申请标准,比如是否会导致人身伤害、目标是否一致、能否确保人类的控制等。还有学者建议就解决算法决策证据透明性问题而言,采取依托数据处理器执行的算法审查方式,或者借助事后审查的外部监管机构,或者使用被设计进入算法本身的报告机制。伦理审查在算法风险规避之中发挥着重要作用,能够推动负责、公平、透明的伦理规范守则形成。对于不可测和高度复杂的算法系统,问责机制不能仅仅依赖于可解释性。审计机制被提出来作为可能的解决方案,用于检查算法的输入和输出,以了解偏差和危害,而不是解剖系统如何工作。这种基于责任基础之上的审计机制,更进一步凸显了伦理审查的重要性。同时,考虑到人工智能的决策运行是多要素交互作用的结果,包括算法设计师、开发人员、用户、软件和硬件等,其间涉及多层级的价值观念渗透冲突,迫切需要建立一个信任度较高的实施环境。因此能够衡量规范道德价值的伦理审查机制作用便进一步凸显,这一机制能够确保人工智能算法以符合道德标准的方式运行。如何对算法风险实施有效评估,必要的监管是不可或缺的。但是,如何确定监管的对象是算法本身还是算法的设计者?算法是由编程代码组成,而编程代码本身是无法监管的。相反,只有相应的规范管理实体或规范的实际结果才能被规范。伦理嵌入的人工智能产品需要框架约束,这种约束不单单是对算法的约束,算法本身并不能直接承担责任,更重要的是对设计者的约束。这也表明了算法是由人设计的,对人的伦理道德约束才是解决算法风险问题的根本所在。

    工具理性不断扩张的结果,必然会导致价值维度的衰落与迷失。算法在应用及辅助决策过程中的过分参与或滥用,会产生很多风险问题,这些难题不是单一的技术问题,而是涉及技术、政策、法律、伦理等多个维度。如果说技术、政策和法律等方面的规约更偏向实用主义色彩,那伦理道德层面的规约则更多地体现出理想主义色彩,但作用影响却更为深远。

    (一)算法伦理审查的标准化

    算法伦理审查的标准化是通过设置各种伦理规范守则的框架式结构,不断强化算法风险的伦理约束、形成“律化”反应的发展历程。算法风险治理过程中产生了各式各样的伦理规范,旨在为算法的“负责任”发展提供伦理保障。在这种语境下,弗洛里迪和桑德斯最接近于现实的建议是,将在道德上可接受的行为定义为“阈值函数”,用于可观察变量,这些可观察变量构成一个抽象层次——在阈值以上可以认为是道德的,在阈值以下就是不道德的[8]。该抽象层次上的一个能动者被认为是道德上良善的,如果对于某一预先约定的值(称为容忍值),它维持了可观察量之间的一种关系,使得阈限函数的值在任何时候都不超过容忍值。伦理审查标准化实质上为算法更加透明、算法社会更加有序提供了伦理解决方案,让算法在设定规划好的框架中健康运行。

    谈到伦理审查标准化对算法风险的重要制约,必然要考虑算法的价值观嵌入这个先决条件。价值观一直参与设计过程,常常以技术规范或工程师自身价值理念以及他们为之工作的公司的价值文化的形式体现。对价值观敏感的工程,使价值观成为技术设计的一个显性和有意识的元素。机器伦理并没有体现出与人工智能风险相关的因果关系,因为人类对技术的社会结果以各种方式参与和负责,而成功的伦理行为要比有一个好的算法更重要。在过去的二十年中,越来越多的研究人员呼吁通过以用户为中心和对价值敏感的设计等产品设计方法,在设计过程中尽早纳入伦理考虑。例如,范登·霍文曾呼吁“一种旨在使道德价值成为技术设计、研究和开发组成部分的道德行为方式”(Van den Hoven,2005年)。价值敏感设计是“一种基于理论的技术设计方法,在整个设计过程中以原则和全面的方式考虑人类价值”(Friedman等人,2013年)。根据这一学派的观点,应通过工程师和伦理学家的合作,在设计层面主动融入伦理价值观,而不是仅仅在技术开发过程的最后进行讨论[9]。

    从理论上看,根据人类预设的道德原则进行道德决策的机器人可以成为只能做好事的“道德楷模”,而且在一定程度上还可以避免人们对其的不当使用、恶意利用和滥用[10]。2019年国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》,明确提出:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。类似于此的算法伦理审查的标准化规定了算法及其自身的道德义务,把合理合规的道德规范植入算法之中,是规避算法风险的必要举措。在试图为人工智能和智能机器制定伦理审查标准时,研究人员和从业者应该努力更好地理解现有的伦理原则,以便他们能够将伦理原则应用于研究活动,并帮助培训开发人员建立道德的人工智能。

    (二)算法伦理审查的制度化

    算法伦理的制度化是其伦理审查制度化的前提条件。伦理是具有情境性的,在特定环境下能正常接受的伦理,迁移到另外一种情境中就会发生变化。有学者认为,伦理制度化是将社会中自发形成以及民众中自愿遵守的伦理要求,通过明文规定的形式加以制度化表达,进而借助制度的强制约束性提升社会主体遵守规则的执行力。伦理制度化的核心便是将制度的强制力量融入道德规范之中,以健全的伦理制度推行价值理念。算法已经成为信息社会和智能社会的生产力核心要素,而算法伦理制度化则是在标准化基础上的进一步发展,夯实了伦理对算法的辐射影响,伦理制度的作用得以彰显。

    从算法层面来看,目前谈论较多的便是伦理约束,即为机器人等智能体设置一定的道德制度规范,使得他们的行为表达和功能属性在一定的伦理范围内运行,从而更符合我们所追求的科技向善准则。算法作为工程师设计者的产物,继承了人类的道德理念,或好或坏。因此,建立标准化的伦理制度,进而规制算法风险,降低风险的破坏力,显然是迫切和关键的。2018年,亚马逊的招聘算法——旨在确保亚马逊能够找到最有可能在该公司表现出色的人——成为女性简历偏见的头条新闻。用来训练算法的数据集是关于谁已经在亚马逊工作的历史数据。因为“亚马逊雇员”通常是男性,所以该算法采取了这种偏见并加以放大。在使用人工智能技术的过程中,不恰当的算法偏见或歧视可能会导致不良后果,如性别偏见和种族偏见等,造成输出结果的偏差,这也直接验证了伦理制度的重要性,需要从制度层面加以有效约束。

    算法伦理审查的制度化则是算法伦理制度化的重要组成部分,其本质内涵是通过健全完善的伦理审查制度体系来提升外界监管力度,最终达成“合乎人性”的发展目标。2021年9月,国家互联网信息办公室等九部委制定了《关于加强互联网信息服务算法综合治理的指导意见》,强调“企业应建立算法安全责任制度和科技伦理审查制度”“逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”。因为算法的设计者便是我们人类自身,设计者的主观意愿和社会认知等要素,不仅体现在技术层面上,也同样显现在道德伦理等非技术性层面上。由于支持数据挖掘的模型的许多特性、度量和分析结构都是由其设计人员选择的,因此这些技术可能会复制其设计人员的偏见。为避免此类偏见的产生,推进算法的道德化进程,主要途径便是建立伦理制度框架下的社会治理模式,根据伦理规则调整制度设计,进而实现算法伦理审查的制度化。算法伦理审查的制度化则涵盖法律法规建设、安全风险评估、备案管理制度、技术监管方式等核心要素,形成“监测—评估—备案—监管”一体化的伦理审查制度体系,建构规范化的伦理审查制度框架,从外界打破算法自身的偏见与不透明,为人们理解使用算法提供更为科学的认知指向。

    (三)算法伦理审查的结构化

    2017年《新一代人工智能发展规划》中明确:“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。”[11]不同阶层、领域、群体对人工智能的算法风险认知出发点不尽相同,概念认知上的混乱混淆,群体或个人喜好上的不同,容易造成算法风险的认知偏差,这种偏差或乐观、或悲观。牛津互联网学院教授桑德拉·沃克特认为,人工智能的风险和收益会因为行业、应用和环境有差异。人工智能技术的创新发展是否需要设置应用边界,这个应用边界需要如何设置,伦理道德的作用如何发挥等,这些问题已经成为政府与学术界普遍关注的热点。技术的发展过程之中如果缺少智慧审视与原则考量,丧失安全这一底线,最终就有可能让人类付出更大的代价去补偿,这验证了建构一种相对稳定可靠伦理结构的重要性。

    算法风险从主体使用者的角度出发,可区分为意外风险或恶意使用。意外风险可能更多地掺杂善意因子,而恶意使用带来的技术滥用,特别是在军事领域的滥用,则可能打破原本健康有序的应用环境,使得技术发展陷入恶性竞争之中。因此,严格规范人工智能这一重要行业和领域的规则,从顶层设计和源头治理层面推动人工智能规范发展,是人类迎接挑战、规避风险的必要路径。由于算法本身的发展不是静态的,而是动态变化的,虽然法律、规则、技术等维度的约束在其中占有重要地位,而伦理规约的约束力可能相对有限,但其始终是不可忽略的一个重要环节。通过制定超越技术标准、法律条文等硬性规范的伦理守则,能够有效规范人工智能应用的行为道德,进一步扩大算法风险治理结构的弹性空间。构建伦理软约束治理机制,能够从道德层面缓冲人工智能风险治理的强度,并对可能存在的风险进行前瞻性的预见,这种规约机制是基于多元主体自愿、共识基础之上的伦理治理路径,具有明显的风险规避优势。

    人工智能算法对作为现代伦理支撑的主体性原则、社会正义观和实质结果主义提出了严峻挑战。这种挑战主要体现为人的主体性地位的消解、群组正义观代替个人正义观、人工智能在算法结果上的标签化效应等[12]。因此,应对算法风险需要从不同的伦理角度来对其表现形式、运行机理、工具理性、多元价值等进行批判审视。算法技术发展中伴随而来的各种风险首先可以通过增强技术可靠性以及开拓技术周边措施的方式来增加公众信任[13]。建构算法设计、开发和使用的伦理原则,确定相对稳定的实用框架和审查机制,通过可靠的伦理结构来确保道德施治。这样的伦理审查结构化表达方式对算法治理至关重要,有助于从框架到实践全面实施和执行算法的道德规范,促进人工智能的伦理治理,推动人工智能的道德化进程。

    算法风险的治理有赖于道德阈限与问责,在框定算法风险的道德边界时,更要明确各主体应承担的责任,既要确保在算法设计之初便有合适的伦理嵌入其中,也要确保算法运用过程符合伦理审查要求。这样既从算法本身进行了道德层面的阈限,也从外部环境进行了必要的伦理约束,同时也明确了各多元主体及算法运行各层级的责任划分。算法的道德阈限强调了算法的应用轨迹与框架,其核心在于让算法更加透明、更加公开、更加有序,其中涉及算法伦理审查的标准化、制度化和结构化。因此,合理可靠的算法伦理审查机制应包括以下内容:科学理性的道德承载,精准规范的责任归属以及程序公正的伦理审查。这样从伦理道德层面审视驾驭算法风险,才能确保其科学防范与治理成效。

    “算法的社会本质是一种权力”[14]。而这种“权力”应始终在伦理的引导下推进发展,伦理也是算法设计与应用的框架和底线,伦理审查则应一直贯穿于算法技术发展运用的全周期。我们应客观看到人工智能伦理审查的多元复杂性,其涵盖数据伦理审查、算法伦理审查、产品伦理审查等多个维度,也要辨识算法伦理审查在其中的特殊性。我国在推进算法伦理审查的制度体系建设进程中取得了显著进步,2021年《新一代人工智能伦理规范》等规章制度的发布,标志着算法综合治理格局的健全完善。算法与人之间的人机关系逐渐成长为理性健康、融合互通的价值共同体,双方在不断缩小价值理性偏差的过程中重塑了新型人机共生关系,这也是正式推动算法伦理审查的初衷和目的所在。

    猜你喜欢伦理道德人工智能《心之死》的趣味与伦理焦虑英美文学研究论丛(2022年1期)2022-10-26头上的星空与心中的道德律十几岁(2021年24期)2021-11-18护生眼中的伦理修养活力(2019年19期)2020-01-06跟踪导练(五)(2)时代英语·高一(2019年5期)2019-09-03道德是否必需?——《海狼》对道德虚无主义的思考英美文学研究论丛(2019年2期)2019-08-242019:人工智能商界(2019年12期)2019-01-03人工智能与就业IT经理世界(2018年20期)2018-10-24数读人工智能小康(2017年16期)2017-06-07下一幕,人工智能!南风窗(2016年19期)2016-09-21用道德驱散“新闻雾霾”新闻前哨(2015年2期)2015-03-11
    相关热词搜索: 伦理 算法 认知

    • 文学百科
    • 故事大全
    • 优美句子
    • 范文
    • 美文
    • 散文
    • 小说文章