界面新闻记者 |
界面新闻编辑 | 刘海川
当前,网络算法已深度融入每个人的日常生活。然而,未成年人使用社交网络媒体背后,潜藏着网络霸凌、有害内容侵蚀、成瘾性依赖等多重风险。今年两会期间,这一问题引起广泛关注。
“我国虽出台《未成年人网络保护条例》等法规,奠定了未成年人网络权益保障基础,但适配本土国情的精细化监管体系仍需完善。” 全国人大代表、北京大学博雅特聘教授田轩向界面新闻介绍。
澳大利亚《2024网络安全(社交媒体最低年龄)修正案》于2025年12月10日正式生效,该法案要求特定社交媒体必须采取“合理措施”阻止未满16岁的人在其平台拥有账户,成为首个全面禁止16岁以下青少年使用社交媒体的国家。
今年也有委员建议研究制定未成年人社交媒体保护性管理规定,明确将十六周岁设定为未成年人注册使用社交类平台的“数字成年年龄”。要求平台运营者对新增用户实行强制性年龄核验,对存量用户逐步完成排查清理。
田轩表示,澳大利亚、土耳其等国的监管实践可借鉴,但核心举措需结合我国实际优化适配,避免照搬照抄和简单“一刀切”。

田轩认为目前我国未成年人社交网络媒体监管工作仍存在四方面问题,分级管控体系不健全,身份核验手段不足,未形成适配的管控模式;平台责任落实不均衡,成瘾性功能、算法推送管控缺位,有害内容审核效率偏低,小众平台成为监管盲区;协同治理机制不完善,部门间协作、家校社联动存在短板,专业干预救助力量缺失;监管适配性与实操性不足,部分监管思路照搬国外,技术防控与政务、学籍系统联动不够,农村、留守儿童等群体的监管保障存在短板。
为此,田轩建议完善立法体系,构建本土适配的分级监管制度。建立“通用账号+学生账号”双轨制,明确不同年龄段未成年人账号注册、使用及管控规则,提高平台违规处罚成本;强化算法与功能约束,禁止诱导成瘾的设计,要求平台默认开启青少年模式,明确学生账号算法审核及报告制度,落实平台核心管理人员的个人责任。
此外,强化技术防控,提升监管精准效能。依托国家政务服务平台和全国学籍信息系统,构建身份联动核验机制,推动平台强制接入,运用技术防范身份冒用,为特殊群体增设线下核验渠道;建立动态监管清单制度,对未成年人常用平台实施分级分类监管,动态调整监管范围并采取相应惩戒措施,消除监管盲区。
在压实平台责任方面,田轩建议,要求平台建立未成年人内容审核专项机制,开通快速处置通道,定期向监护人和学校推送账号使用报告;监管部门定期开展平台保护措施落实情况评估,将结果公示并与平台资质等挂钩,建立合规激励与惩戒机制。
田轩还认为,需构建协同机制,凝聚家校社企多方合力。推动网信、工信等多部门建立常态化联动机制,将未成年人网络保护纳入地方政府绩效考核,设立专项财政资金支持相关工作;将数字素养教育纳入中小学课程体系,开展监护人培训,鼓励民间组织参与干预救助,开通专门求助热线;加大线下活动场所投入,丰富未成年人线下生活,为困境未成年人提供针对性保护与干预服务。
“通过以上举措的实施,可有效筑牢未成年人数字成长防线,减少其接触有害内容、沉迷社交媒体的风险。化解未成年人网络使用引发的社会矛盾,培育具备良好数字素养的时代新人,助力数字经济健康发展与社会和谐稳定。” 田轩说。





还没有评论,来说两句吧...