首页打开

数字人伦理的风险维度与规范建构

青年记者 | 2024-07-20 10:19:20原创

来源:青年记者

作者:成倩(中国人民大学新闻学院博士研究生)

来源:《青年记者》2024年第6期 

导  读

本文从数字人文视角切入,基于伦理批判思维,通过架构数字人伦理风险框架,辨析人偶共生时代数字人技术所带来的诸种数字伦理风险以及其承载的伦理敏感性,激活伦理反思,寻求道德与法律共治的伦理守护之道。


一、引言:数字人伦理规范与治理问题为何重要

随着新科技持续赋能,各类数字技术已深刻构序了人类的生存形态和生活场景。数字人由于具有更为强大的形象建构能力、感知能力、情感表达能力与场景互动能力,逐渐成为承担起深度科技化时代连接个体与场景、型构虚实融合、人偶共生等新的社会结构与关系的深度体验性媒介。人类可凭借数字人这一体验性媒介开启数字化的生存状态、获得数字编码的身体、开辟新的智识能力、更新认知与情感结构,孕育新的心灵状态,甚至实现“人类意识的另一种寄存与再现”[1],实现生命的数字化生存。人偶共生的新场景与数字化生存状态昭示着重塑人与技术关系的契机,但也蕴藏着颠覆式的伦理风险与挑战。譬如数字人在发展的过程中出现的侵犯隐私权、侵犯肖像权、侵犯版权、造谣传谣、VR性侵等技术伦理乱象以及其他技术带来的潜在社会风险。这些技术伦理乱象不断突破着人类的伦理底线,对个人、群体、社会乃至整个人类带来愈加全面和严峻的潜在风险,信息文明的伦理基础已受到冲击。

鉴于此,如何规制技术衍生出的伦理乱象急需我们深入探讨。过去,现实世界的伦理规制框架关注的是人与人之间的伦理关系;而在人偶共生时代的伦理省思中,我们还需关注人与物、物与物之间的伦理关系。那么,传统的规范人类的社会伦理是否能在数字人交往中得到适配的复现?如若不能,人类如何调适在智能时代的伦理基础[2],进而将人偶共生场景转化成为真正的伦理性实体?这一伦理之问成为当下我们探索“技术与人和谐共生、科技与社会协同演化”的必答题。

二、风险之维:数字人涉及的数字伦理风险

如何更好地在伦理范畴下实现数字人这一智能技术与社会的良性互动,成为人偶共生时代伦理问题的核心所在。回应这一关切,首先需要就人偶共生场景中的数字伦理风险维度进行深入研究。

(一)信息安全伦理风险

数字人技术一旦被有心之人利用,不仅会导致自然人的个体权利遭受损害,甚至会引发不同程度的社会伦理问题。信息安全方面的伦理风险主要包括侵犯隐私权、侵犯肖像权、数字身份被盗等。在人偶共生的场景中,利用数字人侵害人身权益造成危害与潜藏的威胁,已超出传统侵权手段的损害程度。譬如数字化复活易对逝者隐私等造成侵害,进一步给逝者近亲属的权益造成损害,引发生者之间的权益纠纷。

(二)人际关系伦理风险

人际关系伦理风险主要表现为主体间关系的冷漠化、低程度的情感转化力、信任的媒介化与弱化等维度。若人工智能无边界地介入传播领域,则可能带来人与机器以及人与人之间关怀的熵增,造成人际伦理的失调[3]。人偶共生场景是一种人与人、人与非人的虚体交往场景,在这一交往场景中,人的数据化是最基础的构件。而“人的数据化必然导致人与人关系的数据化,人在以可量化的数据考量自身的同时,必然将他人也当作数据来考量”[4],冷冰冰的数据本质导致人偶共生中的人际关系变成一种叙事而不是叙述。叙事中“主体的想法、偏好、情绪等感性的价值会被可计算的、可量化的数据价值取代,主体间关系的冷漠化也就成为必然”[5]。这最终导致人们在交往中低程度的情感投入现象,同时人与人之间的信任逐渐被媒介化,这种媒介化的信任随之带来的风险亦对现实人际关系有所冲击。

(三)人的主体性伦理风险

其一,自我身份认知模糊化的伦理风险。由于数字人是“一种全新的认识生命的形式与物质的统一体”[6],因此当人们面对数字人时,其原有的认知模式容易被打破从而产生身份认知困境。“因为我们不仅要面对‘我们是谁’的问题,还需要面对‘它们是谁’的问题。”[7]若深层入境,数字人技术不仅是一个技术外化的载体,其同时所营造出的虚实交融的交互体验在某种程度上会改变作为物理性实在体的人的真实认知环境,导致自我认知的虚实割裂与身份认知的模糊化,虚实孪生中“肉体的我”与“技术的‘我’”因形式上的同构性而难以明确划分。综上,数字人等人工智能技术在一定程度上会导致数字社会在释放数据效力和优势的同时,也催生出身份异化等诸多伦理问题和风险[8][9]。

其二,人的物化伦理风险。数字世界中个体的生命形式逐步由线下的身体转化为线上构成数字化界面的“虚体”(vir-body),个体凭借数字人技术可暂时告别作为具体实体的身体,变成经由算法驱动生产出来的数据产品。数字人依托的算法以及所采集的各类数据成为人偶共生场景持续运行的物质基础,人在数字世界生存便需“仰数据的鼻息”并不断喂养数据,长此以往便会逐渐虚置自身主体性,以至于没有多余的空间再运行自己本有的心智。即“算法在编程过程中对客体的描述只有0和1,人与客体之间的差别处于模糊状态,人的地位、尊严,以及人的主体性遭受破坏”[10]。如同本雅明认为机械复制会带来艺术灵韵的消逝一般,数据展示的意图同样将在某种程度上摧毁主体的灵韵。

其三,道德主体边界的模糊与责任弱化的伦理风险。当数字人技术构建了一种全新的人机交互系统时,原本的“人与人”的道德主体边界与责任归属划分标准也随之被解构,易出现责任主体缺失之困境。譬如VR性侵、VR霸凌等事件虽作用于数字人这一虚体身上,但“针对虚体的行为所产生的伦理后果,在很大程度上可以对应于现实世界针对实体性自我的行为”[11]。即使VR性侵本质上是一簇数据与另一簇数据之间的技术互动,但从情感与心理层面来说,这种虚拟行为带来的伤害是具体化与实体化的。虚拟世界的道德破窗与缺位会反作用于现实世界并带来新型的伦理伤害,数字世界不再是区别于现实世界的“世外桃源”般的特定伦理场域,而是作用于现实世界伦理感受的平行世界。

三、伦理关涉与辩护:人偶共生社会场景中伦理的规范建构

规范建构是为了“导引”人偶共生社会场景中数字人的各类实践行为,需要遵循以下原则。

(一)伦理守护原则:伦理规范建构应以“人”为中心

虽然我们需要重构适合于人偶共生时代数字人的信息伦理规范,但是建构原则并非以“数字人”为中心,而必须始终以人类为中心。这是因为数字人(数字虚拟人、数字孪生人)并不具备自我意识,也并不具有显著的道德主体性。因此“无论人工智能在技术层面有怎样的发展,它最终服务于人类社会时仍然需要遵循人类社会的道德框架和准则”[12]。2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,也明确规定“坚持人类是最终责任主体,明确利益相关者的责任”[13]。

一是从认知机制层面来看,数字人整合学习伦理知识凭借的是机器的智能,而人类社会知识的习得更需要非言传的人类智识。杜严勇教授指出:“机器人之所以能够进行道德判断,是根据人类植入的计算机软件程序或算法做出的抉择,机器人只是执行设计者意志的工具”[14]。机器的智能至多是人类认知的方法论“镜像存在”,它无法拥有自己的视角去学习一套伦理规范。毕竟伦理道德与法律规范的知识均具有极强的意义阐释性质,蕴含了人类自觉且具有创造性的思考能力。即使数字人可以通过深度学习获得关于伦理道德与法律规则的“知其然”的实际知识,但是这种知识的习得并不能让其真正掌握“伦理道德”的内涵。盖因数字人无法获得“知其所以然”的认识。质言之,只有能够说出来的知识才能为机器所学习,对于伦理道德等不可言传的知识,机器智能则无能为力。

二是从道德主体性层面来看,只有作为主体性的人才具有道德性,数字人作为技术工具仅仅是道德承载体。道德性与道德责任是人类具有主体性的拱心石。正是道德原则构建了人类主体性发展路径的伦理基石。而数字人毕竟是作为特定躯体的数字镜像,即使在“人—机”交互中被赋予“社会人”的身份,变得更加智能化、社会化与人性化,但并不代表其道德行为与人类的行为完全一致。须注意数字人没有道德与灵魂,“它们的本质不是血肉而是人工智能系统”[15],其“在功能等价的意义上对意识的智力性认知层面予以模拟,但并不具备对于一个道德主体来说至关重要的现象学意识”[16],这意味着数字人无法真正内化人类社会的道德规范与社会规则,只是在功能意义上具有“拟道德性”,本质上无法具有完全的道德主体性,更不可能居于道德主体地位。

马克思主义伦理学认为,道德是人类社会特有的。人类应该做什么与不应该做什么,具有不可言传的摄悟能力要求,而这些是数字人难以望其项背的;而法律为的是让人类负责,只有人类才能对法律负责。因此,数字人的伦理归责是与自然人、法人和其他相关机构等现实世界相挂钩的,而非技术本身。鉴于此,数字人的伦理规制建构应该以现实世界为主,结合具有道德主体地位的“人”的现实。

(二)伦理与法律共治:伦理守护关键的具体操作构件

在坚持“以人为中心”的伦理原则基础上,我们将基于现实已有的相关法律法规作为数字时代伦理价值的基石。本文针对数字人在研发、传播与使用三个阶段滋生的伦理法规问题,从研发者、传播者、使用者等角色出发,本着社会责任、隐私保护、求真向善等目标,提出具体的三维伦理考量与守护路径。

1.“造”的伦理:研发阶段伦理责任的践行与追溯。研发阶段的重要角色便是数字人技术研发的平台以及相关设计人员。以往关于技术伦理冲突,技术研发平台常常可以借助“现代风险社会的‘脱域’机制”逃避技术伦理责任。譬如当数字人出现伦理失范问题时,数字人研发设计者或许会以无法全然掌握模型的内在逻辑为借口,从而将全部责任推卸给“数字人技术本身”,逃避责任。德国哲学家汉斯·约纳斯的“责任伦理理论”确立了向技术设计者追责的道德正当性,建构了“基于行为因果关系和负反馈机制,对行为主体要求承担当下和未来责任的伦理体系”[17],意味着伦理责任的追究具有持续性特征,为解决当前人偶共生场景中出现的借数字技术黑箱逃避责任的伦理归责纠纷问题提供了理论依据。

明确道德责任后,需讨论技术研发人员在数字人发展中如何践行伦理责任。依照道德物化的观点,“物不再是中立工具,而是一个渗入道德的规范性存在,是有道德负荷的”[18]。这表明“设计者应将人类道德、社会价值与技术人工物的应用互动产生的直接经验,植入和整合进自己所设计的技术产品和使用规范”[19]。着力打造符合公序良俗的数字人,使得数字人的创制更加符合伦理道德,确保在研发层面满足人们对人偶共生社会场景中“爱、尊重、安全、价值”等社会性需求的认同,促进科技向善。

除此之外,技术研发人员也要提升自身伦理素养与责任意识,增强信息伦理意识和数字社会责任感,时刻以伦理道德红线警醒自己。对照信息安全、人际交往、主体性发展的伦理规范要求,对标“强化自律意识、提升数据质量、增强安全透明、避免偏见歧视”[20]等准则经常开展自我审查。

2.“传”的规范:传播阶段数字人版权问题的法律他律。如何在传播阶段或市场行业层面构建数字人伦理规范与法律建议,这需要进入市场行业语境之中索解。例如数字人知识产权中的版权归属问题,数字人作为一种作品,其版权归属可以由平台的服务协议予以界定。比如微信的“服务协议”规定,“腾讯在本服务中提供的内容(包括但不限于文字、图片、音频、视频、图表、网页、计算机软件等)的知识产权归腾讯所有,用户在使用本服务中所产生内容的知识产权归用户或相关权利人所有,除非您与腾讯另有约定”。Meta则规定,用户在Facebook和Meta旗下公司产品中内容的知识产权都归用户所有[21]。而数字人的发展不断催生着平台与用户之间融合共生的发展趋势,非此即彼的“服务协议”难以恰当解决数字人版权归属的难题。鉴于此,“平台有必要根据不同的创作情形与用户做出差异化约定”[22]。

3.“用”的伦理:用户使用阶段的伦理选择与道德自律。用户自身在人偶共生的数字文明时代也需与时俱进。一方面,要积极提升自身媒介素养;另一方面,要明确无论数字人技术如何更迭,其始终不能替代人类来确定数据信息的目的与伦理原则。基于此,人类在人偶共生场景中要始终坚守道德想象力、情感特性、责任感等人之为人的主体特性。不断更新伦理知识,着力提升伦理素养。为数字人技术插上人类“道德”的翅膀,使其真正成为促进社会进步的“向善科技”与“道德技术”,成为人类开启“虚实和谐”生活的“活媒介”。

综上,研发阶段、传播阶段与用户使用阶段均需遵循新型的科技人文伦理规范及法律法规建议,以期满足人类在人偶共生时代开启“第二生命”的社会性需求。

四、总结与反思

就人类生命认知层面,如何平衡与协调“人类—技术”的关系以及“数字化生存—人性化生存”的关系,是破解数字伦理问题的重要驱动因素。而技术的选择本身就是社会的选择、人类的选择。故在平衡“人类与技术”“数字化生存与人性化生存”的关系时,更需意识到数字人等技术并非洪水猛兽。“理解技术已不再是对技术的文化批判。将技术排斥于文化之外的传统的确应受到质疑。”[23]其中的核心问题在于如何使数字化生存更加符合人性。而社会伦理观便要求,人类不应放弃善用自己大脑的道德责任,不能停止赋予自身、社会意义的想象力与创造力,而应以“去技术化”的思维破解“技术伦理冲突”。

参考文献:

[1][6]毛新志,刘星,向云霞.“数字虚拟人”的哲学反思[J].重庆工学院学报(社会科学版),2009(05):97-99.

[2]段伟文.信息文明的伦理基础[M].上海:上海人民出版社,2020:249.

[3]解学芳,高嘉琪.“智能+”时代AI文化科技伦理反思:创新边界与伦理准则[J].自然辩证法研究,2022(07):74-81.

[4][5]闫坤如,曹彦娜.人工智能时代主体性异化及其消解路径[J].华南理工大学学报(社会科学版),2020(04):25-32.

[7]谢新水.虚拟数字人的进化历程及成长困境:以“双重宇宙”为场域的分析[J].南京社会科学,2022(06):77-87+95.

[8]田旭明.数字社会的主要伦理风险及其应对[J].中州学刊,2022(02):87-93.

[9]孙伟平.人工智能与人的“新异化”[J].中国社会科学,2020(12):119-137+202-203.

[10][17]李建新.数字社会人权保护的伦理进路[J].河北法学,2022(12):125-145.

[11]路强.数字虚拟世界的伦理基底:以“VR性侵”为中心[J].探索与争鸣,2022(07):124-130+179.

[12]王沛楠.西方人工智能的数字伦理规制:困境与进路[J].青年记者,2022(13):95-96.

[13][20]科技部.新一代人工智能伦理规范[EB/OL].(2021-09-26)[2024-01-01].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.

[14]杜严勇.机器人伦理中的道德责任问题研究[J].科学学研究,2017(11):1608-1613.

[15]谭雪芳.图形化身、数字孪生与具身性在场:身体-技术关系模式下的传播新视野[J].现代传播(中国传媒大学学报),2019(08):64-70+79.

[16]刘永安.人工道德主体是否可能的意识之维[J].大连理工大学学报(社会科学版),2021(02):117-122.

[18]王小伟.道德物化及其批评[J].中国人民大学学报,2021(03):62-68.

[19]赵立兵.技术“道德化”:人机传播伦理规约的内在逻辑[J].青年记者,2023(02):28-31.

[21][22]李宗辉.元宇宙中用户身份型数字人及其版权实践的法律考量[J].编辑之友,2022(10):88-98.

[23]许煜.论数码物的存在[M].李婉楠,译.上海:上海人民出版社,2019:41.

本文引用格式参考:

成倩.数字人伦理的风险维度与规范建构[J].青年记者,2024(06):87-90.

责任编辑:范君