- N +

没有脏字的围猎:抖音如何划定隐形网暴的边界?

作者 |  木风

那是一场持续了一个多小时的内部讨论会。二十多个人坐在一起,盯着投屏上的同一条评论,意见僵持不下。

评论只有几个字:" 是不是快 7 天了?" 发在一个普通女孩的视频下面。

她的视频里出现了一件挂着吊牌的裤子。就这么一个画面,评论区涌进来几百条类似的话—— " 快退货吧 ""7 天无理由 "" 是不是快到期了 "…… 单拎出来看,每一条都不算出格,顶多算调侃,暗指她网购衣服 " 蹭穿 "。但当几百条同样指向的调侃密集地砸向同一个人时,有人觉得这就是网暴,有人觉得只是玩梗。

" 什么是玩梗,什么是阴阳怪气,什么是网暴?这个界限很难划分。" 抖音集团网暴治理运营郝哲(化名)说。那条线划在哪里,决定着一个平台对表达自由和用户保护的理解,也决定着上亿人每天的发言会被如何对待。

一个平台每天可能有着上亿人发表个人言论 /《热搜》剧照

2024 年 8 月国家正式施行《网络暴力信息治理规定》,平台不断增加对网暴治理的投入。2026 年 3 月 23 日,抖音基于海量的治理实践,升级新版《抖音网络暴力治理规范》,对相关法律法规进行更系统性的阐释与落地。

这不是一次简单的规则更新。过去几年,网暴本身正在发生深刻的形态变化——从全网围攻热点人物,到小圈子里对素人的隐蔽围猎;从一眼可辨的脏话谩骂,到没有一个脏字却足以让人崩溃的集体嘲讽。旧的规则和技术,已经不够用了。新规背后,是一整套治理观念的迭代:网暴该怎么认定,技术该怎么用,平台的手该伸到哪里、又该在哪里收回来。

那条 " 是不是快 7 天了 " 的留言,正在等来一个更清晰的答案。

没有脏字的暴力

比争议更难处理的,是那些连恶意方向都看不出来的评论。包包(化名)第一次看到那条评论的时候,愣了几秒。

" 光宗耀祖。"

四个字,端端正正,放在大部分语境下都会是一个褒义词。发在一个嫁给外籍丈夫的中国女孩视频下方,单独看也没有问题。

但包包往下翻了翻。第二条," 光宗耀祖 "。第三条,还是。弹幕里飘的也是这四个字,密密麻麻,像一面无声的墙。她是抖音网暴治理团队的一线员工,日常工作是从海量内容中识别网暴事件,定位受害者和施暴者。这一次,她花了比平时更长的时间才做出判断:这是网暴。

被网络暴力的人通常会被涌入的恶意评价影响生活和身心 /《仇恨标签》剧照

同一个词,在不同的事件里含义可能完全不同。几千条看似正面的评论聚在一起,指向同一个人,就从肯定变成了嘲讽,从嘲讽变成了围猎。但你没办法把 " 光宗耀祖 " 做平台层面的统一处理——在别的视频下面,它可能真的就是一句夸赞。

这是网暴治理中最令人头疼的现实之一:暴力不一定带有脏字。

另一个让包包印象深刻的案例,是一个女性博主。她身材健壮,喜欢健身,视频风格跳脱。网友发现她的表情神似民间神话里的鬼怪,开始在评论区刷一个看上去像玩梗的、与她名字相关的谐音词。

一开始她觉得好笑,还点了赞,回复 " 哈哈哈好好笑 "。但谐音梗以难以预料的速度,从几条变成几千条,从评论区蔓延到弹幕和二创视频,她的笑脸表情消失,回应逐渐变成了 " 能不能不要再这么说了 "。再往后,她开始删评论,发视频展示攻击她的内容截图,反复自证。

评论区的恶意迅速膨胀,被网络暴力的人陷入无尽的自证,也难脱身  /《时光代理人》剧照

包包和同事们的工作日常,正是从这些细微的行为变化中捕捉信号。" 她早期给这些评论点赞,后来开始删了,说明她在意了。" 在网暴治理的逻辑里,受害者的行为是判断伤害是否成立的重要依据之一——这件事不是由平台的主观感受来定义,而是需要当事人的真实反应来验证。

网暴的形态在剧烈变化,这是新规出台的核心背景之一。郝哲回忆,2021、2022 年他脑海里的典型网暴,还是那种全网集体声讨的热点事件,攻击指向一个人。但现在,越来越多的网暴发生在小圈子里,针对的是从未出现在公众视野中的素人。

" 一个女大学生在网上分享校园生活,圈子就是学校里那些人,加上少数刷到的网友。" 郝哲说," 但有人造了她的黄谣。对这样一个普通人来说,哪怕只有几千的流量,中间有少量人的恶意攻击,她就已经很受不了了。"

《热搜》剧照

新规正是为了回应这种变化。它将网暴认定建立在三个要素上:指向特定自然人的 " 指向性 ",对当事人身心健康等造成较为严重不良后果的 " 危害性 ",以及信息或行为呈现大量、重复或持续特征的 " 规模化 "。三要素缺一不可,每一个事件都需要基于事实、证据和具体语境做个案评估。

郝哲解释这套认定标准的底层逻辑:网暴不是一个可以被简单定义的概念。一句话是不是网暴,取决于它指向谁、造成了什么后果、以及在多大规模上发生。

而治理它的第一步,恰恰是承认 " 定义 " 本身就是最难的部分。

从海量用户里找到那一个人

定义难,主动发现一个人正在被网暴,更难。

很大程度上,它依靠的是一个需要从海量日活用户中,精准识别出谁正在遭受攻击的系统。

包包每天的工作都是从一个信号开始。这个信号可能来自大模型的自动识别,也可能来自团队内部的预警群。"OK,这个账号现在被网暴了 ",或者 " 这个事件里有当事人需要关注 "。接到信号后,工作分三步:研判、处置、保护。

研判阶段,她和同事们会先用自己的抖音账号,以旁观者的视角去看:现在大家在骂谁?网络上呈现的事实信息大概是怎样的?然后核实这个用户收到了哪些评论、发布了哪些内容、有没有发起举报。如果用户是未成年人,或者老年人、残障人士等 " 数字弱势群体 ",会被归入优先保护的类别。

用户为未成年人、老年人或残障人士等 " 数字弱势群体 ",平台会优先保护

现在,新的模型介入后,系统会自动汇总一个事件的摘要和基础风险分级。郝哲介绍,新技术最大的变化是输入维度的扩展,看的是一整套行为异常信号:用户有没有删评论?有没有 " 断网 "?有没有在评论区说 " 大家不要再骂我了 "?这个用户的被搜索量是不是突然飙升?被提及的视频在不在增加?甚至,头像和资料改成了什么?所有这些细微信号都可以输入给大模型做研判。

" 效率提升了,相比过去,能在同样的时间里保护更多可能的受害者。" 包包说。

另一个重要升级是风险信号识别的时间窗口。升级前监测 3 天到 7 天,一件事过了 7 天再有动静,系统就当它是新的。" 但攻击的人有记忆,被攻击的人也有记忆。" 郝哲说。很多网暴事件持续数月甚至更久,受害者可能断网一段时间,再回来时还是那波人在攻击,系统却以为这是个新事件。现在时间窗口全面升级到一个月以上," 我们还觉得不够,还想继续升级。"

技术在提速,但有一件事它做不了,也不应该做——判定。

抖音每天海量的内容里,绝大多数日常事件,系统可以依据新规的三要素识别是否属于网暴。但网暴的复杂性在于,真正棘手的从来不是那些黑白分明的个案,而是灰色地带——玩梗还是攻击?情绪发泄还是有组织的围猎?正常的舆论监督还是对个人的越界伤害?

《黑镜》剧照

对于这类复杂事件,平台会触发一套 " 共同决策 " 的机制。参与研判的不只是网暴治理团队成员,还包括法务、公共政策、传播学背景的研究人员、产品经理,有时也会引入外部学者的意见。不同专业视角的碰撞,是为了确保一个判定尽可能公正和审慎——而不是由算法、或者某一个人的主观感受来决定。

这正是郝哲反复强调的这套体系的核心原则:机器最擅长的,是从几亿用户中筛选出哪些人可能在被网暴,把与他们相关的评论、视频、搜索数据聚合起来。筛完之后,是人来做下一级的判断——确认这件事的性质,决定介入的方式和力度。" 机器做筛选,人做判断," 他把这句话重复了不止一次," 技术解决规模问题,人解决判定问题。"

研判完成后进入处置。对施暴者的处置是梯度化的,从发站内信提醒逐步升级,直到频繁、恶劣的操作触发严厉处罚。

处置的同时,保护也在展开。对于被识别为高风险的受害者,会有专门的人工外呼团队给他(她)打电话。这通电话的意义,往往不在于解决具体问题,而在于打破受害者 " 孤立无援 " 的感知。

一线外呼员工李倩(化名)在打电话之前,会先做心理建设:" 要先了解这件事的背景,他(她)为什么被网暴,看到那些骂他的言论之后,他(她)现在会是什么状态。" 李倩不会直接套话术," 我要把他当一个活生生的人去沟通。"

有时,她还要做好承受电话那头激烈情绪的准备,这往往是最难的时刻。不管对面是沮丧、哭泣、愤怒,甚至咒骂,她都要照单全收。因为她还有更重要的事要做——把对方从极端情绪里拉出来,防止更严重的情况发生。

对需要法律帮助的用户,平台还会提供法律咨询渠道,流转给中国法律咨询中心的专业老师。

不能被治理掉的东西

新规里有一条表述,在公司内部征求意见时几乎炸了锅。

" 涉及公共利益的议题,应接受合理的社会监督,尊重他人的合理表达。"

飞书文档右侧的评论栏里,这一条的讨论量远超其他条款。有人担心会被滥用,有人觉得措辞还需斟酌,以至于第一次内部评审没能形成结论。

这背后是网暴治理中一个极容易被忽视的维度:平台在打击网暴的同时,怎样保护正当的公共表达?尤其是言辞激烈的批评。在后来的外部专家评议中,一位法律学者的观点让郝哲印象深刻:" 愤怒是一种很宝贵的品质,尤其在网络上——愤怒背后是网民的正义感。"

最终,这条规则作为新规里的一个治理原则,被保留了下来。

规则定好了,但具体到一起热点事件中时,依旧会考验平台对介入时机和力度的精细把控。经验是,事件发展的不同阶段,需要匹配不同的策略。首先,无论什么时候,都不能出现侮辱、谩骂。

" 先把人身攻击、株连家人、‘开盒’人肉等越过底线的内容处理掉,再重点关注组织化的网暴——有人在煽动,有人在搬运扩散,攻击内容高度同质化。但无论怎么处置,原则是不干预事件本身的走向。" 包包团队最长经历过两到三次反转的事件,谁对谁错一直在变,但团队处理原则始终如一:清理暴力,预防伤害,保留讨论。

到了事件后期,如果伤害已经造成,重心就从内容处置转向对受害者的长期保护和修复。

除了表达权,用户对自己要不要被保护,也有选择权。

平台沟通运营刘丹(化名)提到,有用户被识别为高风险后,外呼过去,对方直接说 " 没事,黑红也是红 " ——他(她)觉得这波流量,哪怕是负面的,也是需要的。这个问题曾在研讨会上与专家反复掰扯,最终的结论没有太多争议:成年人可以对自己负责,平台不能越俎代庖。

郝哲把这件事说得更直白:" 网暴保护工具会实时推送给用户,可开关只有用户自己能动。" 不是做不到,而是不应该做。

新规制定过程中还有一个让郝哲印象深刻的转折。最初的草稿里,团队按照职业列了一长串需要特殊保护的人群——法官、飞行员、高铁驾驶员 …… 名单不断膨胀,每增加一个都能找到理由。直到外部学者到场,有人提了一个很朴素的问题:" 除了未成年人享有法律规定的最优先保护权,其他人不应该是公平的吗?"

会议室里安静了几秒。最终,那张长长的名单被推翻,新规只保留了未成年人、残障人士、老年人三类特殊保护群体。这个减法做起来比加法难得多——因为它要求制定者放下 " 多保护一些总没错 " 的直觉,回到一个更基础的原则上去。

一个只靠平台解决不了的问题

2025 年下半年,郝哲去参加了一次网暴议题的跨行业论坛。

去之前,他满脑子想的都是技术难题——怎么从几亿人里找到网暴者,怎么在新形态的攻击下提升识别精度。到了现场他才发现,参会者的构成远超他的想象:律所合伙人、青少年心理学者、体育产业研究员、学校教育工作者、基层社区干部 …… 每个人关心的面向都不同。

" 我一下子觉得,这不是某一个平台的事,这是全社会共同面对的问题。" 他说。

他后来在内部复盘时用了一个比喻:网暴是社会问题在平台上的投影。投影仪可以调焦,可以加滤镜,但画面的源头不在幕布上。

网络暴力是社会问题在平台上的投影

新规定稿前那半年多里,这种 " 投影 " 和 " 源头 " 的张力,几乎贯穿了每一场讨论。书面邮件评审发给了 15 位来自不同学科背景的学者,有些人的意见互相矛盾。研讨会上,一个措辞就可以反复掰扯—— " 危害性 " 的表述,最初写的是 " 心理压力 ",学者说压力可能来自一个人接受的正常社会评价,改成 " 心理伤害 ",范围明确了一些。最后升级为 " 身心健康 ",涵盖精神层面,也包括现实危害。

" 我们背后有一张密密麻麻的表。" 郝哲说," 每一句话对应着不同学者的不同意见。有些意见我们采纳了,有些经过讨论没有采纳,都记着。"

为了让治理标准能随时跟上外部变化,抖音网暴治理团队内部会组织 " 看片会 ",挑选复杂、有争议点的真实案例进行跨团队的讨论复盘。内部的 " 看片会 " 每周一次,至少二十多人。规则制定者、算法研发、舆情专家、法务、公共政策代表、一线研判同学、产品经理,在同一张桌子上拍桌子。郝哲觉得这恰恰是应该的—— " 背景不一样,意见不一致,才能把问题掰开了看。"

网络暴力不是某一个平台的事,这是全社会共同面对的问题 /《恶意》剧照

刘丹所在的沟通团队,则更多站在 " 出口 " 那一端。团队做过反网暴倡议,做过短剧尝试,以受害者视角引发共情,也做过邀请法律和媒体专家讲解 " 开盒 " 链路的访谈节目,还有面向公众的治理公告。

通常,这些行动很难在短期内显现效果,但她注意到一些细微的东西在松动。

" 你去看现在一些网暴事件的评论区," 她说," 会有人说‘让子弹再飞一会’,以前大家总是一拥而上,现在有人会说,等等,先看看。"

她说理想中最终的状态是 " 天下无暴 ",然后她自己笑了一下," 应该不太现实。"

或许是不太现实。但如果再翻开现在那些曾经剑拔弩张的评论区,偶尔能看到有人写下 " 善语结善缘 " 五个字,安安静静地搁在那里。

可能没有太多人点赞,但也没有人去反驳。它就待在那。

- End -

本文仅代表作者观点,不代表平台立场

作者 |  木   风

返回列表
上一篇:
下一篇:

发表评论中国互联网举报中心

快捷回复:

    评论列表 (暂无评论,共2人参与)参与讨论

    还没有评论,来说两句吧...