推动人工智能向上向善发展的五大治理路径
来源:大众新闻
2025-04-23 17:47:27原创
以ChatGPT为代表的生成式人工智能已经成为人工智能领域的重要分支。然而,生成式人工智能面临着数据安全、算法安全、内容安全、隐私安全等法律问题与伦理风险。2024年3月1日正式发布的《生成式人工智能服务安全基本要求》为规范人工智能安全服务提供了基本指引,有助于推动生成式人工智能领域的技术进步、产业发展与安全保障。党的二十届三中全会《决定》进一步科学把握人工智能的发展规律和特点,提出“建立人工智能安全监管制度”“完善生成式人工智能发展和管理机制”,体现了我国政府在人工智能治理领域的反应能力,为规范和促进生成式人工智能向上向善发展指明了前进方向。
加强生成式人工智能准入管理。生成式人工智能产品使用门槛较低,一旦被用来进行非法活动就会成为犯罪行为的工具或手段危及社会公共安全和秩序,甚至导致社会信任危机。因此需要对生成式人工智能产品或服务进行必要的法律约束,将安全评估和备案义务作为开展生成式人工智能服务的前置性要求,明确生成式人工智能产品的提供者对研发和应用负有责任,对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责,增强人工智能产品的合法性、安全性和公正性,提高国家监管机构对生成式人工智能产品潜在风险事前评估,展示出我国在人工智能准入管理上的一致性和连续性。
加强生成式人工智能算法审查。生成式人工智能的数据分析依赖于算法模型,并且通过“机器学习+人工标注”的方式不断优化,导致人工偏好与算法偏见相互交织,难以进行追溯和预防。因此需要将法律规范的要求融入生成式人工智能的算法模型中,加强对算法全生命周期的审查和监管,确保法律要求贯穿整个算法运行流程。加快推进算法审查备案制度,建立算法分级分类安全管理体系,制定算法备案公开信息标准,明确算法审查范围,细化算法审查内容,审查算法的透明性、可靠性和可控性,确保国家和社会公共安全,有效防范和化解算法偏见带来的风险。
加强生成式人工智能内容治理。无论是投喂人工智能的语料数据,还是模型本身的算法,都具有一定的导向性,容易被不法分子利用,存在“生成即传播”的潜在风险。生成式人工智能的数据来源缺乏透明性,生成的内容与用户输入的材料密切相联,很难保证所用的数据是否合法合规,所蕴含的价值取向是否与当今时代相吻合。因此必须高度关注生成式人工智能生成内容的政治性、舆论性和价值取向,纠正生成式人工智能的价值偏见和知识成见,防止生成式人工智能在用户诱导下输出不当言论或违法信息,产生操控社会舆论、激化社会矛盾等扰乱社会秩序的行为,提高生成式人工智能生成内容的可解释性和准确性。
加强生成式人工智能“数智鸿沟”应对。生成式人工智能属于新兴技术,所造成的技术壁垒和数智鸿沟不仅局限于技术的物理接入和使用,还包括对算法的理解、内容的解读以及社会参与的能力,导致资源分配不均和社会不平等现象进一步加剧。因此必须践行以人民为中心的发展思想,坚持发展为了人民、发展依靠人民、发展成果由人民共享的发展理念,明确人的中心地位,把以人为本作为生成式人工智能治理的价值准则,探索人机协作的新模式,不断提升公众的数智能力,打破技术专化的准入壁垒,让广大人民群众共享生成式人工智能发展成果。
加强生成式人工智能用户权益保护。生成式人工智能通过大量数据的汇集、加工和处理进行迭代学习和训练,这些数据往往包含个人隐私和敏感信息,存在信息丢失泄露的风险。因此需要防范生成式人工智能平台滥用人工智能技术以提供服务为由强制用户同意对个人信息无限制索取,同时也要防范用户滥用生成式人工智能侵害技术弱势群体的合法权益。要求生成式人工智能产品服务提供者履行用户防沉迷义务和用户教育义务,建立用户投诉接收处理机制,做到生成式人工智能从训练、投入使用到事后反馈的全生命周期的个人信息处理和用户权益保护。
生成式人工智能作为一种现代新兴技术,是人工智能生态系统的重要组成部分,能够为新质生产力的发展带来全新动力,重塑人类与技术的交互模式。生成式人工智能发展应当以人为本,符合人类需要,服务于人类的价值目标。加强生成式人工智能治理需要在技术、法律和伦理三个层面形成合力,平衡人工智能创新发展和风险防范、权益保障之间的关系,探索和完善符合中国国情、具有中国特色的生成式人工智能治理机制,为社会提供更为安全、更负责任的生成式人工智能产品服务。
[作者:张彬 傅晓,分别系山东建筑大学副教授,山东建筑大学马克思主义学院马克思主义基本原理教研室主任。本文系山东省社会科学规划项目“现象学视域下强人工智能意识研究”(21CZXJ07)阶段性成果]
责任编辑:崔凯铭