- 蔡军;可欣雨;
输入阶段获取的训练语料是生成式人工智能构建数据库的基础,现行刑法尚不足以抵御此阶段带来的个人信息保护风险。生成式人工智能获取海量信息的需求与刑法的控制保护理念天然产生冲突,未经权利主体同意收集个人信息的行为不仅影响了公民个人信息自决权的行使,还带来了隐私泄露的风险,冲击着个人信息的安全与管理秩序。传统个人信息保护模式下的规定不足问题日益严峻,公开个人信息的处理与侵犯公民个人信息罪司法解释中“情节严重”判断陷入困境。因此,应从三方面着手提升新形势下刑法对个人信息保护的应对能力:首先,将公开个人信息分为主动公开、被动公开和非法公开的三类进行保护;其次,在刑法领域,收集个人信息的行为需要遵循合法、正当和必要的原则;再次,将个人信息类型作为“情节严重”判断的第一标准并完善个人信息的类型。
2025年06期 v.25;No.152 1-12页 [查看摘要][在线阅读][下载 1287K] [引用频次:0 ] |[下载次数:876 ] - 杨建武;罗飞燕;
作为新型生产要素,生成式人工智能在为社会带来创新与变革的同时,也带来了信息数据拟合与滥用、深度伪造的失真与魅惑、算法偏见的放大与强化,以及知识生产的摩擦与侵权等内容风险。面对这一革命性技术带来的内容风险,既有内容风险规制体系捉襟见肘,面临高拟真性与可解释性的技术张力、技术颠覆与监管适应的范式冲突、技术迭代与监管滞后的结构矛盾等现实梗阻,亟需找到更合理规制路径。现有以欧盟方案为核心的“分级分类管理”模式主要以预防为主,容易陷入抑制技术创新与监管滞后的桎梏中。因此,为有效规制生成式人工智能内容风险,在借鉴现有“分级分类管理”模式基础上,结合生成式人工智能内容生成过程、主客体等要素,通过构建层次化监管体系、运用多重技术手段进行优化、推动多主体协同治理等举措,提出更具针对性、合理性、敏捷性、操作性的“分级分类管理”举措,以实现对生成式人工智能内容风险的有效应对与管理。
2025年06期 v.25;No.152 13-22页 [查看摘要][在线阅读][下载 1212K] [引用频次:0 ] |[下载次数:1073 ] - 朱亮宇;
对于网络共同犯罪中共同故意的认定,主要存在着概括认定、司法推定和片面共犯的故意认定三种方式。概括认定易混淆犯罪集团成员界限,扩大故意认定范围;司法推定存在改变司法权力配置的风险,需明确基础事实必要性与可反驳性;片面共犯故意仅限帮助犯且适用罪名特定,入罪门槛较高。网络共同犯罪的组织链条化与联络松散化并存,促使司法实践以概括责任、概括责任扩张化的认定网络共犯的主观故意,存在背离责任主义的隐患。宏观上坚守责任主义,对归责范围与结果进行实质审查;微观上推动证据规则从印证模式向综合认定转型,重视罪过考量,对明知与应知差异化处理,具体化主观认知范围,并实质化认定上下游关联犯罪的共同故意,以实现网络共犯认定的合理限缩。
2025年06期 v.25;No.152 23-31页 [查看摘要][在线阅读][下载 1180K] [引用频次:0 ] |[下载次数:162 ] - 王若宇;胡神松;
生成式人工智能在模型训练过程中对海量作品数据的使用,面临著作权法上复制权侵权的认定困境。当前法律对“复制”行为的宽泛界定,未能区分技术性复制与具有传播目的的复制,导致数据处理合法性高度不确定。研究提出,应在司法实践中对复制权进行目的性限缩,以“固定性”与“传播性”作为构成侵权的双重标准。训练过程中所涉临时性、非表达性复制行为,因不具备独立传播意图与市场替代效果,不应落入复制权规制范围。在此基础上,数据溯源技术可作为验证“非传播目的”与过程合规的关键治理工具,通过记录训练全流程元数据,构建可信证据链,为司法裁判提供客观依据。最终,应构建法律解释与技术治理相协同的分层实施框架,在不妨碍技术创新的前提下实现著作权制度的有效调适。
2025年06期 v.25;No.152 32-40页 [查看摘要][在线阅读][下载 1176K] [引用频次:0 ] |[下载次数:866 ]