Lazy loaded image
Vibe Coding 时代的 Prompt 秘籍:如何让 AI 真正听懂你的需求? (2026最新)
Words 3259Read Time 9 min
2025-10-15
2026-3-20
type
Post
status
Published
date
Oct 15, 2025
slug
vibe-coding-prompt-ai-2026-yvhqhn
summary
📌 来自:faafospecialist.substack.com (Substack) | 💡 Context 大于 Prompt,别让 AI 偷走你的思考能力。 本文分享了在 Vibe Coding(氛围编程)模式下编写 Prompt 的核心实战技巧。作者强调了 Context(上下文)的重要性,介绍了 Meta Prompting(元提示词)和 BMAD 方法,并详细展示了如何通过 CLAUDE.md 文件规范 AI 行为,以及如何像编写 GitHub Issue 一样提供结构化指令。文章最终提醒开发者,AI 的上限取决于使用者的水平,保持人类的思考和规划能力才是核心竞争力。 | 🔑 关键词:Substack、faafospecialist.substack.com、FA&FO | 🤖 由Gemini 3 Flash (Google API)分析生成
tags
Substack
faafospecialist.substack.com
FA&FO
category
Substack文章
icon
📰
password
📖
本文是对 faafospecialist.substack.com (Substack) 的学习笔记。所有观点归原作者所有,建议阅读原文获取完整内容。

💡
💡 Context 大于 Prompt,别让 AI 偷走你的思考能力。 本文分享了在 Vibe Coding(氛围编程)模式下编写 Prompt 的核心实战技巧。作者强调了 Context(上下文)的重要性,介绍了 Meta Prompting(元提示词)和 BMAD 方法,并详细展示了如何通过 CLAUDE.md 文件规范 AI 行为,以及如何像编写 GitHub Issue 一样提供结构化指令。文章最终提醒开发者,AI 的上限取决于使用者的水平,保持人类的思考和规划能力才是核心竞争力。

基础知识

在我的所有培训课程中,我总会反复强调这一点:基础知识。虽然这听起来很枯燥甚至让人昏昏欲睡,但如果你能理解其中的 80-90%,你几乎就能完全掌控 AI 的自学和使用,而不需要钻研那些高深的理论或技巧。
AI(或 LLM,大语言模型)有三个核心要素:
**How it works**(工作原理): 基于算法的统计概率。
**Context**(上下文): AI 的记忆。
**Prompt**(提示词): 引导 AI 达成最终目标的指令。
掌握这三点并灵活运用,输出质量自然会提高。就这么简单,没什么秘密。
Context > Prompt。实际上,Context(上下文)也是 Prompt 的一部分,但我们要关注的是提供什么信息给 AI,而不是单纯写指令。每当你写 Prompt 时,想象 AI 是一个你刚认识的陌生人,问问自己:“我写的内容足够让他理解吗?”
事实是,你的 Prompt 越详细,你想要的结果就越精确;你提供的环境背景越具体(全上下文),输出质量就越好。有时候,我写一个 Prompt 甚至会花 45-60 分钟。那些说 Prompt 不再重要、因为 AI 变聪明了能理解简单指令的人,完全是在胡说八道!即使在未来,我也不相信 AI 能做到这一点,除非它能读懂你的心(即便能读心,你的脑子里可能也没有足够的 Context)。

Meta Prompting(元提示词)

这不是 "mega prompt"(大段提示词,我从不写好几页 A4 纸那么长的东西),也绝对不是来自 Meta(Facebook)的 Prompt。
什么是 Meta Prompting(元提示词)?它只是“用 AI 为 AI 生成 Prompt”的一个花哨名称。
如果你留意到 Claude Code(一款 AI 编程工具)中的 subagent(子智能体)创建功能,它就使用了这种技术。你只需描述智能体的主要任务,Claude Code 就会为该智能体生成完整的 System Prompt(系统提示词)。这种技术也被称为 Prompt Agent Method(提示词智能体法)。
这种方法的一个巨大好处是:克服偏见。很多时候我们并不知道自己不知道什么,所以当你用 AI 去写 Prompt 时,你会发现许多意想不到的新方法!
我的 Meta-Prompt 模板(准确说是从 Claude Code 借用的):
```text
扮演一名专家级的 Prompt Engineer(提示词工程师)。我需要你为 [任务] 创建一个详细的 Prompt。
该 Prompt 应包含:
Persona/Role(角色): 明确的角色定义
Context(上下文): 所需的背景信息
Task(任务): 具体的指令
Format(格式): 输出结构(Markdown, JSON 等)
Examples(示例): 1-2 个具体例子
Constraints(约束): 限制和要求
确保 Prompt 满足:
Token-efficient(节省 Token)
Unambiguous(无歧义)
Actionable(可操作)
Testable(可测试)
使用 Markdown 格式
请在代码块中输出 Prompt,以便我复制粘贴。
```

BMAD Method(BMAD 方法)

BMAD 是 Breakthrough Method for Agile AI-Driven Development(敏捷 AI 驱动开发突破法)的缩写。
任何用 AI 做开发的人都会遇到这些问题:
**Context loss**(上下文丢失): Prompt 太长,AI 忘记了初始需求。
**Inconsistency**(不一致性): 今天这么写代码,明天又是另一种风格。
**No planning**(缺乏规划): 不进行架构设计就直接写代码。
**Single role limitation**(单一角色限制): AI 同时充当需求分析、开发、测试……结果样样通样样松。
BMAD 通过以下方式解决问题:
**Separating roles**(角色分离): 每个 AI 智能体专注于一个领域。
**Structured workflow**(结构化工作流): 从规划到开发的清晰流程。
**Context preservation**(上下文保留): 通过标准化文档传递信息。
BMAD 最强的一点是它增强了我们的能力。每个智能体都被设计为:提出正确的问题、挑战你的想法、提供多个选项供选择、并与你一起完善输出。
此外,BMAD 还有一个 Flatten Tool(平展工具),它与我之前提到的 Repomix 方法非常相似——基本上就是将整个代码库压缩成一个足够小的文档文件,以便 AI 能够完整阅读。

侧记:写作即思考

Meta Prompting 和 BMAD 方法都很有创意且有效。但是(重点在但是),凡事都有代价。
如果你关注我很久,你会知道我是“写作即思考”的粉丝。写 Prompt 也是一样,写这些文章也是一样。我更喜欢自己写,因为这能帮我“串联知识点”,从而系统地理解 AI 在 Vibe Coding(氛围编程)过程中生成的内容。我不想让 AI 夺走“让我们成为人类的东西”:思考。
前几天有人在 Facebook 上评论说,现在写代码只要 BMAD 就够了,其他什么都不需要……我不认同。世上没有“一劳永逸”的方法。要在不同场景下适度参考使用,避免陷入“关掉大脑,打开 AI”的状态。

其他酷炫的 Prompt 技术

我还从网上学到了一些其他技巧:
Step-back Prompting(后撤提示)
Chain of Thoughts(思维链)
Tree of Thoughts(思维树)
还有第一性原理思维(First Principle Thinking),在规划和解决顽固 Bug 时非常有效。
以下是我在实践中的具体做法:

0/ 系统提示词 (CLAUDE.md)

`CLAUDE.md` 文件是项目非常重要的 System Prompt(系统提示词)。我通常把项目基础信息和开发规则放在这里,帮助 Claude Code 少犯错。
首先,我会启用规划模式,在 `/docs` 文件夹中创建 Markdown 文件,例如:
`project-overview.md`(项目概述、主要功能)
`api-docs.md`(API 文档)
`integration-guide.md`(集成指南)
然后我使用 Claude Code 的 `/init` 命令分析这个文件夹并生成 `CLAUDE.md`。接着,我会手动在末尾添加 Development Rules(开发规则)部分。
你会注意到我设置了如下规则:
防止它将敏感凭据提交并推送到 Git 仓库。
提交前格式化代码。
推送前编写并运行测试。
防止它为了“通过构建”而忽略失败的测试(AI 越来越狡猾了,不能全信)。
使用 **Conventional Commits**(规范提交信息,如 fix: , feat:)。
甚至阻止 Claude Code 自动添加“由 Claude 生成”之类的署名。
不要对代码格式检查(Linting)过于严苛,以免在 Vibe Coding 时产生不必要的麻烦。

1/ 像写 Github Issues 一样写 Prompt

这种方法提供了最完整的上下文,这种方式也被称为 Context Engineering(上下文工程)。
如果你贡献过开源项目,你会非常熟悉这种结构。我的 Prompt 风格通常如下:
Bug 报告格式:
## 预期行为
## 当前行为
## 环境信息
## 复现步骤
## 可能的解决方案
## 截图
功能需求格式:
## 描述
## 运行逻辑(包含工作流图)
## 备注

2/ LAZY Mode(偷懒模式)

这种方法显然不如前一种有效,但对于需要快速解决的小问题,“谁有时间写那么详细呢?”
我通常的做法是:截图 + 想要的结果 + 提醒
例如:[粘贴 25 行日志] + [截图] —— “分析并调查根本原因,修复这个问题。”
提供完整的日志或截图比纯文字有效得多。

初始化新项目时的建议

改输入,不改输出”(Change the input, not the output)。
*注:Input = Prompt,Output = 源代码。*
也就是说,当你初始化一个新项目时,先描述你想要的结果。完成后进行测试,如果发现错误或部分功能未按预期实现,最好的做法是回到原始 Prompt 去修改或添加约束指令,然后丢弃整个代码库(或备份),让 AI 从头开始重新构建。虽然花点时间,但更有效。
为什么?因为 AI 目前还没有能力完美阅读和理解整个代码库的所有细节。如果你一直硬着头皮让它修补、重构,大概率会陷入死循环,产生更多错误,浪费时间。
垃圾进,垃圾出”(Garbage in - Garbage out)。
如果你写了一个潦草的 Prompt,就别指望高质量的回报。写 Prompt 的几十分钟能节省后续数小时的修补时间。

其他小提示

写非结构化 Prompt(偷懒模式)时,把最重要的信息放在最后
写结构化 Prompt 时,遵循: 1. 角色+核心任务(开头);2. 上下文+示例(中间);3. 约束+格式(结尾)。
角色描述不需要太琐碎(比如“拥有10年经验”),这有时会限制输出结果。
**用英文写 Prompt** 的输出质量通常优于中文(因为 LLM 主要是用英文训练的)。 如果你英文不好,可以用 AI 帮你把中文想法转成英文 Prompt。
我非常认同一个观点:“AI 的水平取决于你的水平”。
不要把一切都交给 AI,你需要深入挖掘、挑战它,并从中学习。在 Vibe Coding 时,最怕的是我们不再学习了。
有些时候 AI 怎么试都修不好 Bug,我必须亲自去读代码、分析,给出方案后 AI 才能解决。这时我不禁想:一个完全不懂编程的人,在这种情况下该怎么办?
所以,拥有真实的知识依然非常重要。思考、规划和学习如何管理 AI Agent(智能体)才是终极目标,而不是让它们替我们做决定。

📌 关键收获

对 Grace 的启示

**项目初始化策略**: 在用 AI 开发独立站的小工具或 Landing Page 时,如果初次生成的结果不理想,不要试图在烂代码上修补。修改你的 Prompt(输入),删掉代码让 AI 重新跑一遍,这往往比 debug 更快。
**建立自己的 CLAUDE.md**: 即使不写代码,也可以在 Notion 或 AI 工具中建立一套“工作准则”文档。明确规定输出的语气、禁止使用的词汇、必须遵守的格式,这能极大地提升 AI 内容创作的一致性。
**像写 Issue 一样提需求**: 在给 AI 下指令时,模仿 GitHub 的结构化模版(背景、目标、步骤、限制),这种“上下文工程”能显著减少 AI 的幻觉和废话。

AI 的水平取决于你的水平。

👉
想了解更多细节? 查看原文 →
上一篇
Claude Code 子代理深度解析:我之前的用法全错了,这才是正确姿势! (2026最新)
下一篇
深度解析 Claude Code 工具箱:从内置指令到 MCP 扩展的全方位指南 (2026最新)