数字政府建设中人工智能应用
的治理困境与路径拓展
——以京津冀及雄安新区实践为视角
刘玉栋* 李晓玲**
[摘要] 在京津冀高质量发展与雄安新区建设的大背景下,人工智能赋能数字政府成为法治政府建设的重要抓手。当前人工智能应用面临数据治理规范缺失、算法决策透明性不足、公共服务均等化失衡、安全风险防控薄弱等治理困境。结合京津冀协同治理及雄安新区智慧城市建设案例,从制度供给、技术特性、治理逻辑、风险管控四个维度剖析问题成因,提出完善数据法治体系、构建算法治理框架、优化均等化保障机制、健全安全防控体系等拓展路径,为数字政府与人工智能深度融合提供治理方案,助力区域法治创新与中国式现代化建设。
[关键词] 数字政府;人工智能;京津冀及雄安新区;治理路径
党的二十届四中全会指出“深入推进数字中国建设,全面实施“人工智能+行动”,这就意味着数字政府建设中深度应用人工智能已经日益提上日程。京津冀作为高质量发展动力源,雄安新区作为现代化城市建设样板,在数字政府与人工智能融合应用上先行先试,已形成“智慧政务”“智能监管”等特色模式。但人工智能的技术迭代性与法律规制的滞后性之间的矛盾日益凸显,数据滥用、算法歧视、服务鸿沟等问题制约治理效能。“法治是国家治理体系和治理能力现代化的重要依托”,唯有以法治破解人工智能应用困境,才能实现数字政府建设与法治政府建设同频共振。本文立足京津冀及雄安新区实践,聚焦人工智能应用的治理痛点,探索适配区域发展的治理路径,为在法治轨道上推进数字政府建设提供参考。
一、数字政府建设中人工智能应用中的问题表象
(一)数据治理规范与跨区域协同不足
人工智能应用依赖海量数据支撑,但京津冀及雄安新区数据治理存在“碎片化”问题。一方面,数据权属界定模糊,2023年京津冀三地政府数据开放平台中,仅32%的数据集明确数据所有权与使用权归属,导致跨部门数据共享时权属争议频发。另一方面,跨区域协同机制滞后,雄安新区与北京、天津的政务数据平台对接率仅为65%,企业信用信息、不动产登记等关键数据存在“共享壁垒”,如某新能源企业在雄安新区办理项目审批时,因无法实时调取天津的环保处罚记录,审批周期延长18个工作日。这就说明,数据治理的不规范严重制约人工智能在精准监管、智能服务中的应用效能。
(二)算法决策的透明性与可追溯性缺失
人工智能算法在行政审批、公共服务等领域的应用日益广泛,但算法“黑箱”问题凸显。以京津冀“智能审批系统”为例,该系统2023年处理企业审批事项13.2万件,其中15.7%的审批结果因算法逻辑不透明引发行政复议,企业对“为何通过”“为何驳回”的质疑率达42%。同时,算法决策缺乏可追溯机制,现有技术架构未对算法模型的训练数据、参数调整、决策过程进行全程记录,当出现错误决策时,难以界定开发者、使用者的责任边界。这种“决策不可知、责任难追究”的现状,既损害行政相对人合法权益,也削弱公众对数字政府的信任度。
(三)公共服务智能化的均等化覆盖不足
人工智能赋能的公共服务在不同群体、区域间存在“数字鸿沟”。从群体差异看,京津冀地区60岁以上老年人中,仅28%能熟练使用智能政务APP,部分社区的“智能养老服务平台”因操作复杂,实际使用率不足15%。从区域差异看,雄安新区核心区智能化政务服务覆盖率达98%,而周边县域仅为62%,农村地区的“智能医保报销”“在线户籍办理”等服务仍未实现全覆盖。这种均等化失衡导致人工智能应用未能充分发挥“普惠便民”价值,与法治政府“执政为民”的宗旨存在一定差距。
(四)人工智能应用的安全风险防控薄弱
数字政府建设中人工智能安全风险日益多元,涵盖数据泄露、算法攻击、系统瘫痪等。2023年京津冀地区发生的政务数据安全事件中,约45%与人工智能系统漏洞相关,其中某市级智能交通管理系统因算法漏洞被黑客攻击,导致交通信号控制异常长达3小时。同时,风险防控技术滞后,三地政府人工智能安全检测设备配备率仅为78%,基层政务部门缺乏专业安全运维团队,70%的安全事件依赖第三方机构应急处置,响应时间平均达5.2小时,难以实现风险的“早发现、早处置”,对公共利益和公民权益构成潜在威胁。
二、数字政府建设中人工智能应用问题的成因剖析
(一)制度供给的滞后性与适配性不足
人工智能技术的快速迭代与法律规制的稳定性之间存在天然张力。当前数据治理领域,尽管有《数据安全法》《个人信息保护法》等基础性法律,但针对政务数据的专门性立法仍缺失,如数据分类分级标准、跨区域共享规则等关键内容尚未明确,导致实践中“无法可依”。算法治理方面,现有法律仅原则性要求“算法公平、透明”,但未对算法备案、审计、问责等具体制度作出规定,难以形成有效约束。同时,区域立法协同不足,京津冀三地关于数字政府的地方性法规存在部分条款冲突,雄安新区作为新设区域,缺乏适配智慧城市建设的特殊法治保障,制度供给与实践需求的“错配”,加剧了人工智能应用的无序性。
(二)技术特性的复杂性与监管能力的不匹配
人工智能算法的复杂性、自主性特征对传统监管模式构成挑战。算法的深度学习过程具有“不可解释性”,即使开发者也难以完全掌控算法的决策逻辑,导致监管部门难以通过传统审查方式评估算法的合法性与合理性。同时,监管技术能力滞后,现有监管手段多依赖人工检查,缺乏针对算法模型的自动化检测工具和技术标准,难以实现对算法全生命周期的动态监管。此外,监管人才匮乏,京津冀地区政务监管部门中,具有人工智能、网络安全专业背景的人员占比不足,难以应对技术密集型的监管需求。由此可见,技术特性与监管能力的“落差”,使算法治理陷入“管不了、管不好”的困境。
(三)治理逻辑的效率导向与公平价值的失衡
数字政府建设初期,为提升治理效能,往往以“效率优先”为导向推进人工智能应用,忽视了公平价值的兼顾。在公共服务智能化设计中,过度强调技术便捷性,未充分考虑老年人、残疾人等特殊群体的使用需求,导致“技术排斥”现象。社会治理中,资源投入向核心城市、重点区域倾斜,雄安新区核心区与周边县域的智能化建设资金投入比例达5:1,这种“非均衡投入”加剧了区域间的服务差距。同时,缺乏有效的公平性评估机制,人工智能应用上线前未开展充分的社会影响评估,上线后未建立常态化的均等化监测指标,效率导向与公平价值的“失衡”,背离了法治政府“公平正义”的核心要求。
(四)风险防控的被动应对与体系化建设的缺失
当前人工智能安全风险防控仍处于“事后处置”的被动阶段,缺乏全链条、体系化的防控机制。从风险预防看,政务部门在引入人工智能系统时,未建立严格的安全评估与准入制度,部分系统未通过等保三级认证即投入使用。从风险管控看,缺乏实时监测与预警平台,对数据泄露、算法异常等风险的感知能力不足,往往在事件发生后才进行补救。从责任追究看,安全责任划分模糊,人工智能系统的开发者、运维者、使用者之间的责任边界未明确,发生安全事件时易出现“责任推诿”。这种“被动应对”的防控模式,难以抵御日益复杂的安全威胁,与数字政府“安全可控”的建设要求不符。
三、数字政府建设中人工智能应用的治理路径拓展
(一)构建适配区域发展的数据法治协同体系
针对数据治理规范缺失与跨区域协同不足的困境,需从立法协同、规则细化、平台建设、机制保障四个维度构建系统性解决方案。
1.推进区域立法协同机制化。由京津冀协同发展领导小组牵头成立“政务数据法治协同工作组”,联合雄安新区管理委员会及三地人大、政府法制部门,建立立法调研、草案会商、意见征询的常态化协作流程。在《京津冀及雄安新区政务数据治理协同条例》制定中,明确区域数据治理的基本原则、管理体制与责任划分,重点解决三地数据分类分级标准不统一、共享权限界定模糊等问题,对现行地方性法规中存在冲突条款进行集中修订,实现区域数据治理规则的“无缝衔接”。
2.细化数据治理操作规则。建立“政务数据分类分级指引”,将政务数据划分为核心数据、重要数据、一般数据三级,对应不同的共享范围与安全保护措施;推行“数据共享权责清单”制度,明确数据提供方、使用方的权利义务,包括数据质量保障责任、安全管理责任、保密义务等,对无正当理由拒绝共享或违规使用数据的行为设定具体惩戒措施。
3.打造一体化智能数据平台。升级“京津冀政务数据共享交换平台”功能,构建“数据中台+业务中台+安全中台”的三台中台架构,实现雄安新区与京津数据平台的100%技术对接与数据互通。在数据中台层面,建立数据清洗、融合、标准化处理机制,提升数据质量;在业务中台层面,开发数据共享申请、审批、使用的全流程线上办理模块,简化共享流程;在安全中台层面,嵌入数据加密、访问控制、行为审计等安全组件,保障数据流转安全。
4.建立数据治理保障机制。设立“区域数据治理专项基金”,用于支持数据平台建设、技术研发与人才培养;组建“数据治理专家委员会”,吸纳法学、信息技术、公共管理等领域专家,为区域数据治理提供专业咨询与技术指导;建立数据协同治理评估机制,定期对三地数据共享效能、规则执行情况进行评估,评估结果作为区域协同发展考核的重要指标,确保数据法治协同体系落地见效。总之,通过多层次、全方位的制度设计,为人工智能应用提供高质量、合规化的数据支撑,打破区域数据壁垒,提升数据要素的配置效率。
(二)建立全生命周期的算法法治治理框架
为破解算法决策透明性与可追溯性缺失的难题,需构建覆盖算法“设计—备案—应用—审计—问责”全生命周期的法治治理体系。
1. 强化算法设计阶段的合规要求。推行“算法合规设计制度”,要求政务人工智能算法在设计之初即嵌入合法性、公平性、透明性考量,明确算法开发应遵循的法律原则与技术标准,如不得设置歧视性参数、不得规避法定审批程序等。建立“算法设计文档备案制度”,开发者需详细记录算法的设计思路、逻辑框架、训练数据来源及筛选标准,确保算法设计过程可追溯。
2. 完善算法备案审查机制。细化算法备案的范围、内容与流程,将涉及行政审批、行政处罚、公共服务分配等直接影响公民、法人权益的算法纳入强制备案范围。备案内容需包括算法模型说明书、训练数据样本、风险评估报告等材料,省级网信部门与政务服务管理部门建立联合审查机制,对高风险算法实行“材料审查+专家评审”双审查模式,评审专家从“算法治理专家库”中随机抽取,确保审查的客观性与专业性。备案信息通过政务服务平台向社会公开,接受公众监督,但涉及国家秘密、商业秘密的除外。
3. 规范算法应用与审计流程。建立“算法应用日志制度”,政务部门需对算法的运行过程、决策结果进行实时记录,日志保存期限不少于5年,确保算法决策可追溯。推行“双轨制算法审计”,政府监管部门每季度开展常规审计,重点检查算法决策的合规性与公平性;引入具备资质的第三方机构开展年度独立审计,审计范围涵盖算法模型的稳定性、训练数据的合理性、决策结果的偏差度等,并出具审计报告向社会公开。对审计中发现的问题,责令政务部门与算法开发者限期整改,整改不到位的暂停算法应用。
4.明确算法全链条责任划分。制定《政务人工智能算法责任划分办法》,构建“开发者—使用者—运维者”的责任体系:开发者对算法设计缺陷导致的损害承担首要责任;使用者对算法应用过程中的合规性审查、异常情况处置承担管理责任;运维者对算法运行的安全性与稳定性承担保障责任。建立算法错误纠错与赔偿机制,对因算法错误造成公民、法人损失的,由责任主体依法承担赔偿责任;同时设立“算法纠错快速响应通道”,确保错误决策能及时更正,最大限度降低损害后果。通过全生命周期的法治约束,实现算法治理从“事后追责”向“全程防控”转变,提升算法决策的公信力。
(三)完善人工智能公共服务均等化保障机制
为弥合公共服务智能化的“数字鸿沟”,需从设计理念、资源配置、服务供给、评估监督四个维度构建均等化保障体系。
1. 树立“包容性智能”设计理念。将公平普惠作为人工智能公共服务的核心价值导向,在智能政务系统开发中推行“通用设计+特殊适配”模式。通用设计层面,遵循简约化、直观化原则,优化界面交互逻辑,降低使用门槛;特殊适配层面,强制设置“适老化模式”“无障碍模式”,针对老年人提供语音导航、视频指导、人工协助等服务,针对残疾人开发屏幕阅读器兼容、语音控制等功能。建立“用户体验测试机制”,在系统上线前组织不同年龄、学历、身体状况的群体进行测试,收集反馈意见并优化调整,确保智能服务对各类群体的“友好性”。
2. 优化区域与群体间资源配置。建立“京津冀及雄安新区智能化建设协同投入机制”,三地财政按比例统筹安排智能化建设资金,重点向雄安新区周边县域、农村地区及老年人口集中社区倾斜,缩小区域间、群体间的资源差距。实施“技术下沉与能力提升工程”,组织京津地区的技术团队与政务服务骨干对口支援基层,开展智能设备操作培训、系统运维指导等工作,提升基层政务人员的智能化服务能力。在农村地区推行“智能政务服务站+流动服务车”模式,弥补固定服务网点不足的问题;在社区设立“数字助老服务点”,安排志愿者协助老年人使用智能政务服务,打通服务“最后一公里”。
3. 创新均等化服务供给模式。建立“人工智能+人工辅助”的混合服务模式,在智能服务渠道之外,保留线下窗口、电话咨询等传统服务方式,满足不同群体的服务需求。推行“公共服务智能化需求清单制度”,政务部门定期调研不同群体的服务需求,根据需求优先级推进智能化服务开发,避免盲目追求技术先进而忽视实际需求。开展“智能服务适切性评估”,对已上线的智能服务进行效果评估,对使用率低、群众满意度不高的服务及时优化或调整,确保服务供给与需求精准匹配。
4.健全均等化评估与监督机制,制定《人工智能公共服务均等化评估指标体系》,设置服务覆盖率、群体使用率、特殊群体适配度、满意度等核心指标,明确各指标的量化标准与权重。建立“季度监测+年度评估”制度,监测数据由三地政务服务管理部门联合采集,评估工作由第三方机构开展,评估结果向社会公开。将均等化评估结果纳入政务部门绩效考核体系,对评估优秀的给予表彰奖励,对均等化不达标的限期整改,并建立整改跟踪督办机制。通过系统化的保障机制,确保人工智能技术真正惠及全体民众,实现公共服务的公平普惠。
(四)健全人工智能安全风险防控法治体系
为应对人工智能应用的安全风险,需构建“预防—监测—处置—问责”全链条、立体化的风险防控体系。
1. 强化风险预防与源头管控。建立“人工智能系统安全准入制度”,明确政务部门引入人工智能系统的安全标准与准入流程,要求系统必须通过等保三级及以上认证,并开展安全影响评估,评估内容包括数据安全风险、算法安全风险、系统运行风险等,未通过评估的不得投入使用。推行“安全开发生命周期(SDL)”管理模式,将安全要求嵌入算法设计、开发、测试、部署等各个环节,开发者需制定详细的安全开发计划,定期开展安全测试与漏洞扫描。建立“供应商安全资质审查制度”,对人工智能系统供应商的技术实力、安全保障能力进行严格审查,建立供应商“白名单”与“黑名单”制度,对存在安全隐患或违规行为的供应商实施市场禁入。
2. 完善实时监测与预警机制。建设“京津冀及雄安新区人工智能安全监测预警平台”,整合三地政务人工智能系统的运行数据,运用大数据、人工智能、态势感知等技术,对数据流转、算法运行、系统状态进行实时监测。设置多维度风险预警指标,包括数据泄露风险值、算法异常波动值、系统负载阈值等,当指标达到预警线时,平台自动发出预警信息,并推送至相关责任单位。建立“风险信息共享机制”,监测平台与三地网信、公安、政务服务等部门实现信息互通,及时共享安全风险动态,形成风险监测合力。同时,政务部门需安排专人负责人工智能系统的日常监测,建立监测日志制度,确保监测工作常态化、规范化。
3. 规范安全事件应急处置流程。制定《政务人工智能安全事件应急预案》,明确应急响应等级、处置流程、责任分工与保障措施。根据事件影响范围与危害程度,将安全事件划分为一般、较大、重大、特别重大四级,对应不同的应急响应措施。建立“跨区域应急协作机制”,成立京津冀及雄安新区人工智能安全应急指挥部,统一协调重大安全事件的处置工作,确保跨区域事件能快速响应、协同处置。开展常态化应急演练,每半年组织一次跨部门、跨区域的应急演练,检验应急预案的可行性与应急队伍的处置能力,提升应急响应水平。
4.严格安全责任追究与惩戒,建立“安全责任倒查制度”,对发生安全事件的,成立调查组全面核查事件原因,明确开发者、运维者、使用者的责任,形成责任倒查报告。根据责任大小与情节轻重,对相关单位与个人采取通报批评、约谈、处分等措施;对造成重大损失或恶劣影响的,依法追究法律责任。建立“政务人工智能安全信用档案”,记录相关单位与个人的安全违规行为,纳入社会信用体系,实施联合惩戒。同时,建立“安全事件整改评估机制”,对发生安全事件的单位,责令限期整改,并组织第三方机构评估整改效果,确保整改到位。通过全链条的风险防控法治体系,实现人工智能应用安全风险的“可防、可控、可治”,为数字政府建设筑牢安全屏障。
唯有以法治划定人工智能应用的“边界”,以创新激活数字政府的“效能”,才能为京津冀高质量发展与雄安新区现代化建设提供坚实法治支撑,为在法治轨道上推进中国式现代化贡献区域实践样本。未来,随着区域法治协同的不断深化,数字政府与人工智能融合发展的法治环境将持续优化,治理效能与公平正义将实现更高水平的统一。
(作者为河北省张家口市万全区人民检察院检察官助理 刘玉栋,河北省蔚县人民检察院第三检察部主任 李晓玲)