文|张果
在宋代工笔画创作者@一方画猫呢 的记忆里,AI介入创作有一条清晰的变化时间线。
2023年,AI还只是一个遥远的技术名词。当时,她尝试用传统视频剪辑特效把原稿做成动画,收到的反馈是“不如不做”。2024年初,她第一次尝试把原稿丢进AI模型,结果依然令她大跌眼镜:模型无法准确识别画中的小蛇与龙猫,瑞鹤振翅的画面带有一种“扯着嗓子打鸣”的崩坏感。
变化发生在2025年。随着模型对首尾帧控制力的提升,在自绘画稿的基础上,AI已经能精准还原出作品中的神态,龙猫能在保持完整身体形态的同时,开始自然地挥动爪子、穿云而过。
过去,想要实现这种动态效果,创作者往往需要依赖一支专业的动画制作团队,经历数周的建模、沟通与渲染。而现在,一方只需要一个“AI助手”。
AI技术的迭代正以“天”为单位变化。这种突破让技术无可避免地渗入更多人的日常创作,也将内容行业推向了一个十字路口。
创意与效率解放的B面,是全球内容生态共同面临的秩序挑战。当一张从未被拍摄过的照片、一段从未发生过的“亲身经历”、甚至一个不曾存在的人能以流水线效率批量制造时,内容行业最核心的信任资产,正面临坍塌风险。
面对这股不可逆的技术浪潮,小红书在4月27日通过首届AI治理开放日,率先给出了一份系统性的治理主张:鼓励AI作为创意放大器,反对AI作为造假工具与低质内容生产机器,所有AI参与创作的内容均需主动标识。
这也是此轮技术爆发以来,首个系统性给出AI治理原则的平台,试图在AIGC的混沌期,为创作者们提供一份可参考的AI创作标准,也提供了一个可供内容平台参考的样本。
AI两面,生产力杠杆与造假温床
在传统的创作逻辑中,创意到成品之间还需要的是技术“苦工”。
一方钻研的宋代工笔画更是如此:在蚕丝织成的白绢上,用橡子壳煮水做底色,历经勾线、染墨、正反面分染、罩染,一幅完整的宋代风格院体画往往需要央美创作者“一方”手工打磨至少两个星期。
而让这些来自1000年前技术的画作动起来,一方想了好几年。这种想法在传统工业路径下,基本很难低成本实现。一位影视行业人士曾提到过这种差距:几年前,通过3D建模制作动画时,光是一个5秒的镜头就花了整整15天。
直到AI技术的变革,这种成本才被极度压缩,一方也拥有了一支“随叫随到”的数字动画小组,制作时间单位成了小时。
创作者利用AI让静态国画“动起来”
根本上,效率的提升不是要把人赶出创作现场,而是让AI作为工具,成为“创意的放大器”。在全球范围内,这种生产力变革正以各种形式发生:国际电影节上开始增设AIGC特别单元,顶尖品牌如可口可乐、耐克尝试用生成式技术拍摄品牌片。
AI介入创作甚至融入生活已经不可阻挡,但真正的问题在于如何使用它。
在显而易见的效率红利面前,低质AI内容的溢出正在成为全行业的阴影。当创作门槛趋近于零,虚假内容、低质AI内容的成本也随之坍塌。
过去,一份有价值的内容背后,创作者必须付出时间、金钱或肉身的“现场感”作为成本。这种物理投入本身就是一种“真实性”的信用背书。而现在,这种物理约束被算法解构。
全球都在经历这种真实性危机。真假难辨的AI解说视频,由代码生成的虚拟创作者,虚构的内容正以流水线效率挤占有限的流量池。行业中开始普遍出现利用AI批量复制亲身经历口吻、虚构从未发生的消费体验或生活瞬间的现象。更有甚者,通过AI程序实行账号托管,在评论区冒充真人进行全自动、无感知的互动。
AI生成内容真假难辨
这种矛盾在所有内容生态中基本都存在。一边是优质创作者利用AI延伸审美创意、品味、知识,核心在于人的意志;而另一边,低质内容用AI替代甚至伪造“人”的存在,虚构故事、体验,核心在于流量套利。
这些构成了AI技术与内容碰撞的两面性,而这种两面性不是单个平台的攻防战,而是成为了全球内容产业共同面临的考题。
治理进化,小红书划出3条边界线
技术不断往前走,平台也在同步改写规则。
以小红书作为观测样本,今年以来,从零散的动作到对外给出系统的AI治理主张,小红书正逐步建立一套规则:从最早鼓励标识,到打击AI托管账号,再到把规则细化,平台开始明确一件事,AI可以用,但怎么用有边界。
小红书在治理开放日上,第一次为AI治理明确了三条边界:鼓励AI作为创意放大器,反对AI作为造假工具与低质内容生产机器,所有AI参与创作的内容均需主动标识。
AI治理主张摘录
一个明显的变化是,过去那种靠“抓破绽”的方式辨别是否为AI生成的方式正在退场。比如通过“人有六根手指”去判断,这类方法在今天已经没有太大意义。模型能力提升之后,真假本身就越来越难简单识别。
于是,“是不是AI做的”不再是首要问题,“这样用AI行不行”成为重点。
早在今年1月,小红书在《社区公约2.0》中,就明确提出:“如果你在创作中使用了AI辅助工具,请主动标明。”这是平台对AI内容的首次表态,以此让更多创作者参与标识,主动承担信息透明的责任。
紧接着,规则开始收束。2月,“薯管家”发布公告称,呼吁用户主动添加AI生成合成标识,对未主动标识的内容,平台识别后将统一添加,并明确打击售卖“去AI标识教程”的黑产行为。
近期小红书多次发布AI治理公告
针对“标识”治理,小红书一边堵,一边疏。在发布AI治理主张的同时,平台也补上了另一侧的规则:有标识的优质AI内容,将会得到公域流量倾斜。
当内容真假界限模糊时,单靠平台或用户都很难独立判断。因此,小红书强调,标识不是贴标签,而是保障用户的知情权。让AI参与的内容在阳光下运行,而非在暗处寄生,是为了防止虚假信息最终消解用户对创作者、以及对平台的信任。
在另一端,针对利用AI从事黑灰产的行为,小红书旗帜鲜明地表示反对:对于利用AI程序或第三方工具实现全自动发布、全自动互动的“托管账号”,平台将实行梯度处理,直至封禁。
数据显示,今年以来,小红书已累计处置各类AI不良行为超百万例,其中AI托管账号超80万个、AI造假笔记近15万篇。
作为行业内首个向AI托管说“不”的平台,小红书认为这类内容本质上是在批量制造“看起来像真人”的伪装。它绕开的,正是社区最基础的“真诚分享”原则。
本质上,这份AI治理主张并非为了限制,而是为了给创作者提供更清晰的路径。无论是利用AI扰乱秩序、造假侵权,还是生产低质内容,都在治理范围之内;而对于优质AI内容,平台则明确了欢迎与支持的态度。
尤其是那些“有审美、有叙事、有真实信息增量”的内容,例如鼓励算法背景的程序员深入浅出地科普硬核论文,或者支持设计师、摄影师用AI辅助达成复杂的视觉设想。正如创作者“一方”用AI让宋代国画“动”起来,这是人的创意在主导技术,而非技术在替代人的思考。
而诸如利用AI冒充真人、虚构亲测体验、甚至搬运侵权一类行为,则在直接打击的名单中。
归根结底,这套AI治理规则想做的事情很简单:把模糊地带变清楚。什么可以用,怎么用算合理,哪些行为不被接受,都尽量说在前面。
AI治理背后是平台的价值选择
过去很长一段时间,不少创作者在使用AI时处于一种模糊地带:标注了AI会不会被限流?使用到什么程度算“过度”?
当这些问题悬而未决,创作者容易转向保守,或者滑向另一端,将AI仅仅作为低成本批量灌水的工具。
小红书此次给出的AI治理框架,试图照亮灰色区域。它传达了一个核心信号:平台并不排斥AI,也不会把AI赶出社区,真正被区别划分的是AI的用途、是否带来真实的信息增量。
在此次开放日上,小红书方透露平台也正在建立误判场景下的流量补偿机制,也同样适用于AI场景下的平台误判,通过补偿流量券等方式,不让治理规则变成冷冰冰的一刀切。
小红书公布已上线针对AI笔记贴条的申诉通道
AI大幅拉低创作门槛的当下,不可复制的真人体验、真实视角,反而成为内容行业的稀缺资产。倘若无限制放任AI内容泛滥,工业化批量产出的虚假内容,势必挤压原创创作者生存空间,使内容生态陷入劣币驱逐良币的恶性循环。
近期文娱行业因AI合成内容引发的连锁争议,本质都指向同一个问题:当AI越界伪造亲历体验、虚构真实场景,信任体系便会快速松动。
回头来看,小红书的这些措施和细则,都不希望针对AI内容的治理会成为创作的负面阻力,而是让此成为一份更有确定性的使用指南——可以用AI提高效率,可以用AI表达创意,但不能让AI替代真实经验,更不能用AI伪装成人的经历、人的身份和人的判断。
本质上,任何治理行为都是平台价值选择的外化。小红书作为国内首个正面、系统回答“平台怎么看AI”的社区,核心考量并非单纯的技术决策,而是关于“平台想保留什么”。小红书给出的答案依然是强调了多年的社区底色:“真诚分享、友好互动”。
例如,对“AI托管”的严厉打击,本质是因为机器模拟真人的行为会稀释真实创作者的空间。在一个每天有数亿人参考小红书做消费决策的生态里,这种对真实感的干扰,是对社区互信根基的直接侵蚀。
AI托管账号
对整个行业而言,我们已经无法否认AI的效率与创造力,更不能试图回到那个没有生成技术的旧时代。作为平台能做的,是重新划定边界:明确哪些表达必须建立在真实经验之上,哪些生成内容必须置于阳光下的标注体系内,哪些行为会破坏社区的生态平衡。
小红书AI治理主张就是一种平台态度的提前回应。当AI继续向内容生产的各个环节渗透,所有平台都会面临同一个终极拷问:如果不加区分地放任生成内容流入,信任会被稀释;如果过度限制,创意又会被压制。
在这两者之间,小红书试图找到一条中间路径,并率先将其具象化为一套可执行的规则体系。它未必是治理的终点,但至少提供了一个清晰的起点。
在一个“什么都可以被生成”的时代,内容平台依然可以选择,什么必须由人来完成。

