打开网易新闻 查看更多图片

近日,国家网信办等八部门联合出台《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),该文件将于2026年3月1日正式施行。、

作为继《未成年人网络保护条例》之后的又一重要规范性文件,它不仅填补了实务层面的指引空白,更把抽象的法律原则细化为清晰可落地的具体标准,既为网络平台履行未成年人保护法定义务划清了明确边界,也为监管部门精准执法提供了坚实的裁量依据,全方位筑牢未成年人网络安全防线。本期我们为大家拆解《办法》中的法律要点,以供参考。

一、四类信息的标准

(一)整体框架

《办法》将可能影响未成年人身心健康的网络信息系统性划分为四大类别 ,每类下进一步列举具体情形,为实践中的行为识别提供了具体可操作的标准。

打开网易新闻 查看更多图片

(二)实务要点

1. 行为诱导类信息(第三条)

《办法》明确将“通过谐音梗、缩写词、拆解字、图文结合等形式传播不良网络用语”纳入规制范围,这一规定极具针对性。此前,这类隐晦表达因形式灵活、边界模糊,常常成为平台审核的“灰色地带”,导致部分不良用语借助变相形式向未成年人渗透。此次以列举式条款明确规制对象,为平台审核提供了清晰的判定标准,有效破解了以往审核难、界定难的问题,从源头遏制不良用语对未成年人的误导。

2. 价值观负面影响类信息(第四条)

重点聚焦“价值观扭曲”类内容,具体涵盖宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观,以及宣扬畸形审美、低俗恶俗文化等情形。与显性不良信息不同,这类内容的危害具有极强的隐蔽性,往往通过潜移默化的方式扭曲未成年人的价值认知、审美取向,对其成长造成长期负面影响。这就要求网络平台进一步强化内容审核力度,建立针对性审核机制,精准识别并清理此类隐性有害信息。

3. 不当使用未成年人形象的信息(第五条)

专门针对“网红儿童”“童星经济”等社会热点现象作出规范,明确禁止利用未成年人形象摆拍演绎含有不良价值观或不当言行的剧情内容。近年来,部分流量导向的内容为博眼球,过度消费未成年人,甚至引导未成年人做出不当言行,引发社会广泛担忧。《办法》的这一规定,精准回应了社会关切,为规范未成年人形象相关内容传播划定了红线,守护未成年人的身心健康和成长空间。

4. 不当披露个人信息类信息(第六条)

强化未成年人个人信息特殊保护,明确规制未经监护人同意,擅自展示不满十四周岁未成年人学习、生活细节等个人信息的行为。未成年人个人信息保护关乎其人身安全和隐私权益,不满十四周岁的未成年人自我保护能力更弱,亟需额外强化防护。《办法》进一步细化保护规则,明确监护人同意的核心前提,为平台处理未成年人个人信息设定了严格边界,切实筑牢未成年人个人信息安全屏障。

二、平台义务

(一)"防范和抵制"与"显著提示"双重义务

《办法》明确了网络平台的两类核心义务,为义务履行提供了清晰遵循,与前文信息分类规制形成闭环管理:

第一类是防范和抵制义务。

依据《网络信息内容生态治理规定》等相关法律法规,平台需对前述几类可能影响未成年人身心健康的网络信息,主动采取删除、屏蔽、下架、限流等干预措施。这一义务强调平台的主动作为,要求平台摒弃“被动审核”思维,通过技术排查、人工复核等多重手段,从传播链条上游遏制有害信息触达未成年人,切实落实主体责任。

第二类是显著提示义务。

按照《未成年人网络保护条例》第二十三条的明确要求,平台对相关信息在展示前,必须作出足以引起用户注意的显著提示。这类提示需清晰、醒目,既能让未成年人及其监护人快速识别信息属性,自主选择是否浏览,也能进一步强化信息透明化,弥补单一干预措施的局限性。

两者形成互补关系,既强调主动干预,从源头减少有害信息传播;也重视信息透明,保障用户知情权与选择权。

(二)算法推荐与生成式AI的特殊义务

《办法》第九条专门针对算法推荐、生成式人工智能等新技术应用制定了安全规范,要求服务提供者建立健全安全管理制度与技术措施,其中最核心的义务是不得向未成年人推送可能影响其身心健康的网络信息。这一规定为平台划定了明确的合规红线,将未成年人保护与算法治理直接挂钩。

具体落地时需要抓好三个关键环节:一是建立有效的未成年人身份识别机制,精准识别用户群体;二是构建内容分级机制,将四类高风险信息纳入算法推荐系统的负面清单;三是针对生成式AI设置用户生成内容的审核机制,从源头管控风险。这三个实务要点环环相扣,构成了完整的合规操作框架。

(三)面向未成年人的禁止义务

对于主打未成年人市场的产品或服务(如儿童教育类APP、未成年人专属社交平台等),应当实行"零容忍"标准 ,不得出现任何符合《办法》 四类标准的信息。

三、企业合规建议

基于《办法》 的规定 ,我们建议网络服务提供者从以下几个方面完善合规体系:

(一)构建精细化内容审核机制

具体而言,网络服务提供者需围绕四大类信息标准制定详尽的内容审核清单,涵盖识别指标、处置流程及责任主体等关键要素。同时,应配套开展专业化的审核团队培训,确保审核人员准确理解法规内涵,掌握信息识别尺度,形成从标准制定到落地执行的完整闭环,为内容合规管理奠定坚实基础。

(二)优化用户交互与身份识别机制

在用户体验层面,完善显著提示机制,针对不同类型的信息配置差异化的提示功能,确保用户在访问相关内容前能够清晰知晓其属性与潜在风险。

更为关键的是,要强化未成年人身份识别能力,探索多维度、多渠道的身份验证方式,包括但不限于实名认证、行为特征分析、设备指纹等技术手段,从而提升未成年人用户识别的准确性与覆盖面,为后续精准施策提供可靠依据。

(三)建立算法推荐与负面清单管控

算法推荐机制是网络服务提供者的核心能力之一,也是未成年人保护的重要关口。应当将四类信息纳入算法负面清单,从源头阻断此类内容的推荐路径。

同时,创新构建"未成年人专属推荐池",针对未成年人用户群体设计符合其年龄特点和成长需求的推荐算法,既确保有害信息零触发,又保障适龄内容的高质量供给,实现"堵疏结合"的算法治理目标。

(四)完善投诉处理与持续评估机制

建议建立高效的投诉举报快速处理机制,对未成年人相关的投诉举报实行优先响应、专人跟进、限时办结原则,切实保障未成年人及其监护人的合法权益。

此外,应建立常态化的评估机制,定期开展风险点排查与保护措施效果评估,形成"识别-整改-优化"的持续改进闭环,确保能够适应法规更新与业务发展需要,始终保持有效性与前瞻性。

畅森律师提醒您

《办法》的出台,绝非简单的制度叠加,而是我国未成年人网络保护立法从"原则框架"迈向"具体规则"的质变飞跃。将抽象的法定义务转化为网络平台可感知、可操作、可落地的实践路径,为行业划定了清晰的行为边界。建议企业紧密结合自身业务特点与服务场景,制定具有针对性、实效性的合规实施方案,将纸面上的规则要求真正转化为保护未成年人网络权益的实际行动与制度保障。唯有如此,方能行稳致远,在履行社会责任的同时实现可持续发展的双重目标。