AI 协作

AI 写作工作流怎么搭,才不会越自动化越难维护

真正可维护的 AI 写作系统,不是让模型包办一切,而是先拆清楚选题、判断、成稿和分发各自归谁负责。

2026-04-29 那次公开内容整理里,docs/reports/2026-04-29-content-optimization-basis.md 给出的不是“多写几篇 AI 文章”的建议,而是一个更麻烦的问题:同一组文章在证据、边界和角色上互相挤压。最后保留下来的 Plan A 不是让 AI 直接扩写,而是把 stable-ai-writing-workflow.mdx 设成主文,把模板、五节点和空话修复都降成 companion。

所以这篇谈的不是某条 prompt,也不是“AI 写作能不能替代人”。它只回答一个实用问题:如果 AI 写作要长期接在真实项目后面,流程要怎样拆,才不会越自动化越难维护。

我现在追求的不是偶尔写出一篇,而是让写作能接在真实工作后面

一次性生成文章很容易让人误判效率。你看到的是更快的初稿,看不到的是后面为了找证据、改立场、补边界、删重复而产生的债。

在 OnlyBegin / MakePlans 这种站点里,文章不是孤立文本。它要和项目判断、公开页面、工具选择、后续模板互相对齐。稳定的流程必须先承认这一点:写作不是从空白页开始,而是从一个已经发生的项目转折开始。

第一段:选题层,先判断值不值得写

选题层的输出不是标题列表,而是一句可被反驳的判断。比如这次内容整理里,真正的选题不是“如何用 AI 写作”,而是“公开站点里的 AI 写作簇需要一个 canonical spine,否则 companion 会互相竞争”。

AI 可以帮我整理候选角度,但不能替我决定哪个判断值得公开承担。选题层如果没有人类判断,后面每个节点都会变成修饰平均话。

第二段:证据层,把 repo 和站点里的真实材料放上桌

可维护的 AI 写作要有证据入口。对这组文章来说,证据不是外部名言,而是 docs/reports/2026-04-29-content-optimization-basis.md.omx/plans/2026-04-29-plan-a-public-surface-consolidation.mdcontent/posts/*.mdx 这些真实 artifact。

证据层要回答三件事:这篇文章从哪个项目转折来,哪一个文件或页面能证明它,读者如果把 OnlyBegin 换成泛泛的创作者博客会损失什么。没有这三件事,AI 很容易写出看似完整但无法归属的内容。

第三段:成稿层,只把已经拥有的判断写清楚

成稿层最容易被误用成“让 AI 发明观点”。我更稳的做法是把判断、证据、边界先写在卡片里,再让 AI 帮我组织段落、检查跳跃、压缩重复。

这一步的验收标准不是文章顺不顺,而是有没有保住原来的责任链:判断来自人,证据来自项目,表达可以由 AI 协作完成。只要模型开始补一个我没有确认过的结论,就要退回证据层。

第四段:分发层,不是宣传,而是最后一道结构检查

公开站点里的卡片、excerpt、deck 和 CTA 会倒逼文章角色。一个 companion 如果卡片写得像主文,读者就会被带到错误入口;一个主文如果 CTA 不指向执行材料,读者又只能停在原则层。

所以分发层要检查的不是“标题够不够吸引人”,而是它在整组内容里的位置是否诚实。ai-writing-workflow-template.mdx 应该像执行卡片,split-article-pipeline-into-five-ai-nodes.mdx 应该像交接说明,而不是再写一篇总论。

这套流程稳定,是因为每一层都有退回条件

如果选题层说不清判断,就不要进入成稿;如果证据层找不到项目锚点,就不要让 AI 继续润色;如果成稿层开始替作者发明立场,就退回人工判断;如果分发层和主文角色冲突,就重写卡片而不是强行上线。

稳定不是更自动,而是每一步都知道失败时退回哪里。这样 AI 的速度才会减少维护成本,而不是把维护成本藏到发布之后。

继续读

如果你已经接受这篇主文的分层方式,下一步可以看 AI 内容生产线的 5 个节点怎么交接,它只处理节点之间的 handoff 和 rollback。需要直接拿去执行时,再看 AI 写作工作流模板:主文的五张执行卡片