4QKrnzO7dYf作者:胡冯彬opinion.huanqiu.comarticle胡冯彬:保护青少年用网,体现治理能力/e3pmub6h5/e3pr9baf6“社交媒体未成年人该不该用、如何用”,正成为国际舆论场的焦点。澳大利亚去年已率先完成立法,设立16岁的最低注册年龄,成为全球首个国家层面的立法实践。另一边,法国也在加速推动类似禁令,打算年内落地。印度、捷克等国近期也在尝试跟进。随着加强未成年人网络保护渐成全球性趋势,以统一年龄门槛、责任高度集中于平台的“硬准入型”治理模式也在兴起。 在全球视野下,未成年人社交媒体治理已逐渐分化为4条路径:除澳、法的“硬准入型”外,还包括英国、加拿大的“系统风险治理型”,中、韩等国的“默认保护与引导型”以及美、印等国的“碎片化渐进型”。其差异主要体现在对风险性质界定、平台责任等方面。我国当下选择的,是一条不依赖年龄禁令、强调多方责任共担与默认防护的路径。这体现了我国社会治理中不轻易“大破大立”、注重系统性、弹性与长期稳定的智慧。 无论选择哪种模式,我们都可以通过各国在网络治理领域的积极实践,确认并强化一个社会共识:未成年人不应长期处于无边界、无护栏的信息环境中。当前,我国已建立相对完整的制度底座。下一步的关键,是打通端、网、平台、家庭和学校之间的责任接口,将现有“青少年模式”等保护机制升级为可执行、可评估、可持续迭代的产品与流程规范,推动治理体系纵深发展。 具体而言,可在以下几方面着力完善:一是强化功能治理,将其提升到与内容治理同等重要的位置。实践表明,最容易影响未成年人的,往往是平台功能机制所带来的放大效应,例如陌生人私信、同城推荐、打赏付费刺激、连麦等。这些结构性问题依赖内容审核很难触及。应明确要求平台对未成年人账号默认关闭或强限制高风险功能,并对绕过保护设置更高门槛,使默认保护成为产品底层逻辑。 二是构建可审计、可评估的常态化治理闭环。欧盟和英国的经验显示,平台风险治理只有在监管可审计、指标可比较、外部可评估的条件下才能长期有效。我国可推动平台定期披露未成年人保护关键指标,如识别准确率、风险功能限用执行率、有害内容触达率等,使治理效果可衡量、可比较,避免流于形式化整改。 三是在年龄验证上建立保护与隐私的制度化平衡。以往国际争议的焦点在于,年龄验证越严格,越可能引入证件信息或生物特征数据的集中采集风险。对此,我国可采取分层验证策略,对高风险场景实施更严格验证,并遵循“最小必要”原则,避免过度采集生物信息等敏感数据,同时加强传统治理,将监管延伸至广告推荐等衍生环节,防止未成年人数据在灰色生态中被二次利用。 四是将社交媒体治理与未成年人手机使用管理纳入同一治理框架,协同推进。单独依赖校园禁带手机或家庭没收手机,容易造成反弹;而单靠平台侧保护,也会在家庭支持不足、线下替代供给缺失时失效。可考虑将社交媒体治理与未成年人手机使用管理统筹规划,通过学校终端管理、家庭沟通白名单、运营商套餐协作、平台防沉迷系统等多维度合力,为未成年人构建线上线下连贯的健康数字环境。 全球青少年用网问题频发,凸显了强化治理的紧迫性,各国对治理模式的尝试也在为我国提供经验参考。未来我国青少年网络治理的重点,是以他们的最大利益为核心,将保护深度内嵌于产品设计、算法机制与日常管理中,在设置必要护栏的同时,为其成长保留应有的视野和探索空间。这不仅是保护责任的落实,更是国家治理能力在数字时代的深化体现。(作者单位:复旦大学网络空间国际治理研究基地)1770838738095环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:李雨童环球时报177085044954411[]{"email":"liyutong@huanqiu.com","name":"李雨童"}
“社交媒体未成年人该不该用、如何用”,正成为国际舆论场的焦点。澳大利亚去年已率先完成立法,设立16岁的最低注册年龄,成为全球首个国家层面的立法实践。另一边,法国也在加速推动类似禁令,打算年内落地。印度、捷克等国近期也在尝试跟进。随着加强未成年人网络保护渐成全球性趋势,以统一年龄门槛、责任高度集中于平台的“硬准入型”治理模式也在兴起。 在全球视野下,未成年人社交媒体治理已逐渐分化为4条路径:除澳、法的“硬准入型”外,还包括英国、加拿大的“系统风险治理型”,中、韩等国的“默认保护与引导型”以及美、印等国的“碎片化渐进型”。其差异主要体现在对风险性质界定、平台责任等方面。我国当下选择的,是一条不依赖年龄禁令、强调多方责任共担与默认防护的路径。这体现了我国社会治理中不轻易“大破大立”、注重系统性、弹性与长期稳定的智慧。 无论选择哪种模式,我们都可以通过各国在网络治理领域的积极实践,确认并强化一个社会共识:未成年人不应长期处于无边界、无护栏的信息环境中。当前,我国已建立相对完整的制度底座。下一步的关键,是打通端、网、平台、家庭和学校之间的责任接口,将现有“青少年模式”等保护机制升级为可执行、可评估、可持续迭代的产品与流程规范,推动治理体系纵深发展。 具体而言,可在以下几方面着力完善:一是强化功能治理,将其提升到与内容治理同等重要的位置。实践表明,最容易影响未成年人的,往往是平台功能机制所带来的放大效应,例如陌生人私信、同城推荐、打赏付费刺激、连麦等。这些结构性问题依赖内容审核很难触及。应明确要求平台对未成年人账号默认关闭或强限制高风险功能,并对绕过保护设置更高门槛,使默认保护成为产品底层逻辑。 二是构建可审计、可评估的常态化治理闭环。欧盟和英国的经验显示,平台风险治理只有在监管可审计、指标可比较、外部可评估的条件下才能长期有效。我国可推动平台定期披露未成年人保护关键指标,如识别准确率、风险功能限用执行率、有害内容触达率等,使治理效果可衡量、可比较,避免流于形式化整改。 三是在年龄验证上建立保护与隐私的制度化平衡。以往国际争议的焦点在于,年龄验证越严格,越可能引入证件信息或生物特征数据的集中采集风险。对此,我国可采取分层验证策略,对高风险场景实施更严格验证,并遵循“最小必要”原则,避免过度采集生物信息等敏感数据,同时加强传统治理,将监管延伸至广告推荐等衍生环节,防止未成年人数据在灰色生态中被二次利用。 四是将社交媒体治理与未成年人手机使用管理纳入同一治理框架,协同推进。单独依赖校园禁带手机或家庭没收手机,容易造成反弹;而单靠平台侧保护,也会在家庭支持不足、线下替代供给缺失时失效。可考虑将社交媒体治理与未成年人手机使用管理统筹规划,通过学校终端管理、家庭沟通白名单、运营商套餐协作、平台防沉迷系统等多维度合力,为未成年人构建线上线下连贯的健康数字环境。 全球青少年用网问题频发,凸显了强化治理的紧迫性,各国对治理模式的尝试也在为我国提供经验参考。未来我国青少年网络治理的重点,是以他们的最大利益为核心,将保护深度内嵌于产品设计、算法机制与日常管理中,在设置必要护栏的同时,为其成长保留应有的视野和探索空间。这不仅是保护责任的落实,更是国家治理能力在数字时代的深化体现。(作者单位:复旦大学网络空间国际治理研究基地)