摘要
AI 技术的深度渗透正重塑行政决策的底层逻辑,引发三大核心法律争议:行政决定是否仍属于 “人之判断”、行政裁量是否异化为 “数据与模型的运算结果”、司法审查能否有效实现权利保护。本文以欧盟《通用数据保护条例》 (GDPR)、《人工智能法案》 (EU AI Act)、德国《行政程序法》第 35 条、台湾地区《人工智慧基本法》及大陆相关法律为依据,从主体属性、裁量本质、司法救济三个维度展开分析,厘清 AI 行政决策的法律边界,为构建人机协同的法治行政框架提供理论参考。

关键词: AI 行政决策;人之判断;行政裁量;司法审查;法律规制
一、引言 行政决策是公权力运行的核心环节,传统行政法以 “人类理性” 为基石,确立 “人作为决策主体、裁量权由人行使、责任由人承担” 的基本范式。随着生成式 AI、大数据算法在行政许可、行政处罚、公共服务分配等领域的广泛应用,AI 从辅助工具向决策主导者演变,传统范式面临系统性冲击:AI 生成的行政决定是否具备法律上的 “人之意旨”?行政裁量的价值判断是否被算法的量化计算取代?以人类理性为审查基准的司法体系,能否识别算法偏见、黑箱等新型违法形态? 欧盟、德国、中国台湾地区及大陆均已启动 AI 行政规制立法,形成差异化的治理路径:欧盟以 GDPR 为数据基础、AI Act 为风险框架,构建 “权利本位” 的规制体系;德国通过《行政程序法》第 35 条明确完全自动化行政处分的适用边界;台湾地区《人工智能基本法》确立 “以人为本” 的核心原则;大陆则以《网络安全法》《数据安全法》《个人信息保护法》为基础,配套生成式 AI 管理规范,形成 “安全与发展并重” 的监管模式。本文结合上述法律规范,对 AI 时代行政决策的三大核心问题逐一解析,探索技术理性与法治价值的平衡路径。
二、核心问题一:行政决定是否仍属于 “人之判断” 行政决定的本质是行政机关基于独立意志作出的 “意思表示”,传统行政法要求决策必须体现 “人之判断”,即包含价值权衡、目的考量、个案裁量等人类特有的理性活动,这是行政决定具备法律效力的前提。AI 介入后,行政决定的生成路径从 “人类主导” 转向 “算法生成 + 人类审核” 甚至 “完全自动化”,其是否仍属于 “人之判断”,成为首要法律争议
(一)法律规范的立场界定 1、德国《行政程序法》第 35 条:完全自动化处分的有限承认 德国是全球首个明确 “完全自动化行政处分” 法律效力的国家,2016 年修订的《行政程序法》第 35 条规定:“行政处分可由自动化设备完全作出,前提是法律明确授权,且行政机关无裁量空间或独立判断余地”。该条款清晰划定边界:完全自动化行政处分仅适用于羁束行政行为(如符合法定条件的证照发放、标准化费用征收),此类行为无价值判断空间,仅需机械适用法律,AI 可替代人类完成;而涉及裁量权行使、价值权衡的行政行为(如行政处罚幅度、公共资源分配),必须保留人类判断,禁止完全自动化。 2、欧盟 AI Act:高风险决策的 “人类主导” 强制要求 欧盟《人工智能法案》(2024/1689)将行政决策类 AI 系统纳入 “高风险 AI” 范畴,明确要求:高风险 AI 系统的决策必须以人类监督为核心,行政机关不得将涉及公民基本权利、具有裁量空间的决策完全交由 AI 作出;AI 仅能作为辅助工具,提供数据分析、方案建议,最终决定必须由具备法定权限的公职人员作出,并承担法律责任。同时,GDPR 第 22 条规定,个人有权不受仅基于自动化处理(包括画像)的影响其法律地位或重大利益的决定约束,除非该决定基于公共利益或个人明确同意,且提供适当的权利保障。该条款从数据权利角度,否定了无人类参与的自动化决策的绝对效力,强化了 “人之判断” 的核心地位。 3、台湾地区《人工智慧基本法》:以人为本的决策主体原则 台湾地区 2025 年施行的《人工智慧基本法》第 12 条明确 “AI 不得取代人类最终决策责任”,规定行政机关使用 AI 辅助决策时,必须确保 “人类具有最终决定权与修改权”,AI 生成的结果仅为参考,不具有当然法律效力。该法强调行政决策的 “人格性”,认为价值判断、公共利益权衡等活动是人类专属能力,AI 无法具备法律上的 “意思能力”,因此行政决定必须体现人类的独立意志。 4、大陆法律规范:人机协同,人类主导的基本定位 大陆尚未出台专门的 AI 行政决策法律,但《个人信息保护法》第 24 条(自动化决策条款)、《生成式人工智能服务管理暂行办法》等规范确立了核心立场:行政机关利用自动化决策(含 AI 决策)作出影响公民权益的决定时,应当保证决策的透明度和结果公平公正,不得完全依赖算法,必须保留人工复核与最终决定权。《网络安全法》(2025 修订)第 20 条明确 AI 应用需 “维护国家安全和社会公共利益,保护公民合法权益”,隐含了人类对 AI 决策的主导与控制义务。司法实践中,法院对完全由 AI 生成、无人工审核的行政决定,倾向于认定为 “程序违法”,因缺乏 “人之判断” 而不具备法律效力。 (二)核心争议:AI 辅助决策中的“人之判断” 弱化风险 上述法律规范均强调 “人类主导”,但实践中 “AI 生成、人类形式审核” 的 “伪人类判断” 现象普遍存在,引发 “人之判断” 是否被虚化的争议。AI 大模型的 “黑箱特性” 导致人类难以理解决策逻辑,审核人员往往直接采纳 AI 结果,使 “人类判断” 沦为形式;同时,AI 的高效性易导致行政机关过度依赖算法,逐渐丧失独立判断能力,最终使行政决定的 “意思表示” 实质来源于算法,而非人类。 对此,法律规制的核心在于区分 “形式判断” 与 “实质判断”:人类审核必须是实质性的价值权衡与个案考量,而非简单的程序确认;行政机关需对 AI 决策的依据、逻辑、结果合理性进行独立审查,对不符合公共利益、显失公平的 AI 结果予以否决或修改。德国法上的 “裁量收缩理论”、欧盟 AI Act 的 “人类监督义务”,本质上均是通过法律强制力,防止 “人之判断” 被算法虚化,确保行政决定始终体现人类理性与价值取向。
三、核心问题二:行政裁量是否转变为 “资料与模型之运算结果” 行政裁量是行政权的核心,指行政机关在法律规定的范围内,基于公共利益、个案正义等价值考量,自主选择行为方式、幅度、内容的权力,其本质是价值判断与利益权衡,具有主观性、个案性、灵活性特征。AI 介入后,行政裁量的行使方式从 “人类价值判断” 转向 “数据量化分析 + 算法模型运算”,裁量的本质是否从 “人之价值选择” 异化为 “数据与模型的运算结果”,成为行政法的核心争议。
(一)算法裁量的本质:数据与模型主导的量化决策
传统行政裁量依赖人类经验、直觉、价值观念,是 “模糊的、情境化的” 价值权衡;而 AI 算法裁量的逻辑是将裁量标准转化为可量化的数据指标,通过模型运算输出唯一或最优结果。例如,行政处罚裁量中,算法将违法情节、危害后果、当事人过往记录等转化为数值,输入预设模型,自动计算出处罚幅度;公共资源分配中,算法基于年龄、收入、贡献度等数据,通过权重赋值运算确定分配优先级。 算法裁量具有 “无噪声、精准化、标准化” 特征,能减少人类裁量的偏见与随意性,但同时也存在价值中立假象、数据偏见固化、个案正义缺失等问题。算法模型由开发者设计,权重赋值、指标选择隐含开发者的价值偏好;训练数据往往包含历史社会偏见(如地域、性别、身份歧视),算法会将偏见固化并放大,导致裁量结果看似 “客观公正”,实则存在结构性不公。更关键的是,算法裁量缺乏对个案特殊情境、人文情感、公共利益动态变化的考量能力,难以实现传统裁量所追求的 “个案正义”。
(二)法律规范对裁量异化的规制逻辑 1、德国法:裁量领域禁止完全自动化,保留人类价值判断 德国《行政程序法》第 35 条明确,完全自动化行政处分仅适用于无裁量空间的羁束行为,凡涉及行政裁量(包括不确定法律概念的判断)的行为,绝对禁止完全自动化。德国行政法理论认为,裁量权的本质是 “法律赋予行政机关的价值判断空间”,属于人类专属的精神活动,AI 无法进行价值权衡,仅能处理事实认定与法律适用的机械性工作。因此,在裁量领域,AI 仅能提供数据参考与方案建议,最终的价值选择必须由人类作出,且需说明裁量理由,接受司法审查。 2、欧盟 GDPR 与 AI Act:算法裁量的透明化与反歧视要求 GDPR 第 22 条要求自动化决策(含算法裁量)必须具备透明度,个人有权要求行政机关说明算法决策的逻辑、依据及数据来源。欧盟 AI Act 进一步强化高风险算法裁量的规制:要求行政机关使用算法裁量时,必须公开算法模型的设计原理、指标权重、训练数据来源,进行算法偏见检测与风险评估,确保裁量结果公平公正;禁止使用基于歧视性数据、带有偏见的算法进行裁量。同时,赋予个人对算法裁量结果的异议权,行政机关需对异议进行人工复核,重新作出裁量决定。 3、大陆法律:算法裁量的合理性审查与个案平衡要求 大陆《个人信息保护法》第 24 条规定,行政机关利用自动化决策作出影响公民权益的决定时,不得实行不合理的差别待遇,应当同时提供不依赖算法的人工复核渠道。《生成式人工智能服务管理暂行办法》要求 AI 服务提供者(含行政机关)对算法模型进行合规评估、偏见检测、安全测试,确保算法裁量符合法律规定与公序良俗。司法层面,法院对算法裁量的审查从 “合法性审查” 延伸至 “合理性审查”,重点审查:算法模型是否存在偏见、数据来源是否合法、裁量结果是否显失公平、是否考虑个案特殊情境,对不合理的算法裁量结果予以撤销。 (三)平衡路径:算法辅助裁量,人类掌控价值判断 法律规范的核心共识是:行政裁量的本质仍是人类的价值判断,算法仅为辅助工具,不能取代人类裁量。实践中需构建 “算法量化分析 + 人类价值权衡” 的协同模式:算法负责事实数据的收集、整理、分析,提供裁量方案及量化依据;人类行政机关基于算法结果,结合个案特殊情境、公共利益、人文价值,进行最终的价值选择与裁量决定,并书面说明裁量理由(包括算法依据、人类考量因素)。 这种模式既发挥算法的高效、精准优势,减少人类裁量的随意性,又保留人类对价值判断的主导权,避免算法偏见与个案正义缺失,实现技术理性与法治价值的平衡。
四、核心问题三:司法审查是否仍能有效发挥权利保护功能 司法审查是权利保护的最后防线,传统行政诉讼以 “人类行政行为” 为审查对象,法院通过审查行政行为的合法性、合理性,纠正违法行政,保护公民权利。AI 时代,行政决策的 “算法黑箱”“数据依赖”“技术专业性”,对传统司法审查体系构成挑战:法院能否理解算法决策逻辑?如何审查算法偏见、数据违法、裁量不合理等新型违法形态?司法审查是否仍能有效发挥权利保护功能,成为核心争议。
(一)AI 行政决策对传统司法审查的挑战 1、审查对象的黑箱化:算法逻辑难以穿透 AI 大模型(尤其是深度学习模型)具有 “黑箱特性”,决策逻辑复杂、不可解释,连开发者都难以完整说明其推理过程。法院作为非技术专业机构,缺乏理解算法逻辑、识别算法错误的技术能力,难以对 AI 决策的合法性、合理性进行实质审查,易陷入 “无法审查、不敢审查” 的困境。 2、审查标准的模糊化:新型违法形态缺乏审查依据 传统司法审查标准(如证据确凿、适用法律正确、程序合法、裁量合理)针对人类行政行为设计,难以适配 AI 行政决策的新型违法形态:数据违法(如数据来源非法、数据篡改、数据偏见)、算法违法(如算法歧视、算法黑箱、算法缺陷)、程序违法(如无人工审核、未说明算法理由)等,现有法律未明确审查标准,法院缺乏裁判依据。 3、举证责任的失衡化:公民维权难度加大 AI 行政决策中,行政机关掌控算法模型、数据、决策逻辑等核心信息,公民处于信息劣势地位。根据传统行政诉讼 “被告举证” 原则,行政机关需证明行政行为合法,但实践中,行政机关常以 “算法保密”“技术专有” 为由,拒绝公开算法逻辑与数据,导致公民无法举证算法存在偏见或错误,维权难度极大。 (二)法律规范的应对:构建适配 AI 的司法审查体系 1、欧盟 GDPR 与 AI Act:强化透明度与举证责任倒置 GDPR 第 22 条、第 15 条赋予公民算法解释权与数据访问权,公民有权要求行政机关公开算法决策的逻辑、依据、数据来源,为司法审查提供基础。欧盟 AI Act 进一步规定:高风险 AI 决策引发诉讼时,举证责任倒置,行政机关需证明算法模型合规、数据合法、决策结果公平公正,否则需承担败诉责任;同时,法院可委托独立技术专家进行算法审计,协助审查算法合法性。 2、德国法:完全自动化处分的有限审查与裁量行为的实质审查 德国《行政程序法》第 35 条规定,完全自动化行政处分(羁束行为)的司法审查,仅审查法律依据是否合法、数据输入是否准确、程序是否合规,不审查裁量合理性(因无裁量空间);而涉及裁量的 AI 辅助决策,法院需进行实质审查,重点审查:人类是否进行了实质性价值判断、裁量理由是否充分、是否考虑个案特殊情境、算法是否存在偏见,对违法裁量予以撤销。 3、大陆法律:确立算法解释义务、完善技术审查机制 大陆《个人信息保护法》第 24 条明确行政机关的算法解释义务,公民有权要求行政机关说明自动化决策的逻辑、依据及理由,为司法审查提供前提。《生成式人工智能服务管理暂行办法》要求行政机关留存算法决策日志、数据记录,以备司法审查。司法实践中,法院逐步探索适配 AI 的审查机制:引入技术专家辅助人制度,由技术专家协助审查算法逻辑与数据合法性;明确审查标准,将 “算法公平、数据合法、程序透明、人工复核” 纳入合法性审查范围;强化举证责任,要求行政机关公开算法核心信息,否则承担不利后果。 (三)权利保护的强化路径:透明化、实质化、专业化 为确保司法审查有效发挥权利保护功能,需从三方面完善制度: 1、强化算法透明度,破解黑箱难题 通过法律强制要求行政机关公开 AI 决策的算法模型说明、数据来源、决策逻辑、裁量理由,除涉及国家安全、商业秘密外,不得拒绝公开;建立算法备案制度,高风险 AI 决策模型需提前向监管部门备案,接受技术审查。 2、推动司法审查实质化,覆盖新型违法形态 将司法审查从 “形式合法性审查” 延伸至 “实质合理性审查”,明确数据违法、算法歧视、程序不透明、无人工复核等为独立违法情形,细化审查标准;建立算法审计制度,法院可委托独立第三方技术机构对算法模型、数据进行审计,出具专业意见,作为裁判依据。 3、完善举证责任分配,降低公民维权难度 确立 AI 行政决策诉讼中的举证责任倒置规则,由行政机关证明算法合规、数据合法、决策结果公平;公民仅需证明 AI 决策对其权益造成损害,无需证明算法存在过错;同时,建立公益诉讼制度,允许检察机关、公益组织代表公众对违法 AI 决策提起诉讼,强化权利保护力度。
结论 AI 时代行政决策的三大核心问题,本质是技术理性与法治价值的冲突、算法权力与公民权利的平衡问题。结合欧盟、德国、中国台湾地区及大陆的法律规范分析可知: 1、行政决定的本质仍是 “人之判断”:AI 仅为辅助工具,完全自动化行政处分仅适用于无裁量空间的羁束行为,涉及价值判断、裁量权行使的决策,必须保留人类最终决定权,防止 “人之判断” 被算法虚化。 2、行政裁量的核心仍是人类价值权衡:算法裁量是数据与模型的运算结果,可辅助事实认定与方案生成,但无法取代人类的价值判断与个案正义考量;法律需规制算法偏见、数据违法等问题,构建 “算法辅助、人类主导” 的裁量模式。 3、司法审查需适配 AI 特性,强化权利保护功能:通过强化算法透明度、推动审查实质化、完善举证责任分配、引入技术专家辅助人制度,破解算法黑箱、新型违法审查难等问题,确保司法审查成为公民权利保护的有效防线。 未来,AI 行政决策的法律规制需坚持“以人为本、安全可控、公平公正、透明可解释” 的核心原则,平衡技术创新与法治保障,构建人机协同、权责清晰、救济有效的法治行政框架,让 AI 技术真正服务于公共利益与公民福祉。




