《提问的智慧》 AI Agent 版本
我问:对于现在人们使用 ai agent,《提问的智慧》值得阅读参考吗?
GLM-5.1 回答如下:
这是一个非常好的问题,值得深入探讨。我的结论是:核心原则依然非常有价值,但需要根据 AI 交互的特点做适配和取舍。
依然高度适用的原则
这些原则之所以经久不衰,是因为它们本质上关乎思维的清晰度,而非社交礼仪:
1. 描述目标,而不是过程
这可能是对 AI 使用者最重要的一条。很多人对 AI 说"帮我写一个 Python 脚本用 BeautifulSoup 爬取数据",而不是"我想获取某个网站的结构化数据"。前者限制了 AI 的方案空间,后者让 AI 能推荐最佳路径(也许不需要爬虫,也许有 API)。
2. 描述症状,而非猜测
"我的代码报错了,我觉得是类型转换的问题"——AI 可能会被你的猜测带偏。更好的做法是贴出错误信息和上下文,让 AI 自主诊断。
3. 精确且言之有物
"帮我优化一下性能"远不如"这个接口在 1000 并发下 P99 延迟从 200ms 涨到了 2s,profiling 显示大部分时间花在数据库查询上"。给 AI 的信息越精确,回答越有用——这一点和与人交互完全一致。
4. 话不在多而在精
给 AI 塞 5000 行代码说"帮我看看有什么问题",效果通常很差。精简到最小可复现案例,AI 的回答质量会显著提升。
5. 提问前先做功课
如果你说"我查了官方文档和 Stack Overflow,尝试了 A 和 B 方案但都不奏效",AI 会避开那些显而易见的路径,直接给出更深入的方案。这和与人类专家交互的道理完全一样。
需要适配甚至反转的原则
1. 礼多人不怪 → 可以省略客套
对人类,"请""谢谢"很重要;对 AI,直接说需求即可。客套话消耗 token 而不增加信息量。这不是说你可以不礼貌,而是不必花篇幅在社交用语上。
2. 慎选提问的论坛 → 选择合适的模型和策略
不同模型擅长不同领域,不同场景适合不同的交互策略(单轮 vs 多轮对话、是否开启联网搜索、是否需要代码执行能力等)。这是"选对论坛"的 AI 时代版本。
3. 别要求私人回复 → 不再适用
AI 是一对一的交互,这条完全不相关了。
4. RTFM/STFW → 可以更积极地让 AI 帮你 RTFM
你可以直接让 AI "帮我从官方文档中提取关于 X 的关键信息"。AI 扮演的是帮你快速消化文档的助手,而不是让你自己去读的冷冰冰的专家。
5. 不要声称找到 Bug → 可以更开放地假设
对人类,贸然声称"这是个 Bug"可能冒犯维护者。对 AI,你可以大胆假设"这看起来像框架的 Bug",AI 不会感到被冒犯,而且会帮你验证或反驳。
AI 时代新增的"提问智慧"
原文没有涉及,但在 AI 交互中至关重要的:
1. 迭代比完美更重要
对人类专家,反复修改提问很烦人;对 AI,迭代是最高效的工作方式。先粗略描述,再根据 AI 的追问逐步细化,这比一次性写出完美提问更实际。
2. 提供上下文的边界
AI 有上下文窗口限制,你需要判断哪些背景信息是关键的、哪些是噪音。这和原文"话不在多而在精"一脉相承,但多了技术层面的考量。
3. 验证而非盲信
AI 会自信地给出错误答案(幻觉)。你需要在提问时就思考如何验证回答的正确性,比如要求 AI 附上来源、解释推理过程、或给出可运行的测试代码。
4. 拆解复杂问题
与其问"帮我构建一个完整的电商系统",不如拆分为架构设计、数据模型、API 设计等子问题逐步推进。这和原文的"明确表达需求"相关,但在 AI 交互中更强调分解策略。
5. 利用 AI 的追问能力
你可以主动说"在我回答之前,请先问我 3 个澄清问题"。这在原文中没有对应,但能显著提升 AI 回答的针对性。
总结
| 维度 | 与人类专家交互 | 与 AI Agent 交互 |
|---|---|---|
思维清晰度 |
极其重要 |
同样极其重要 |
信息精确性 |
极其重要 |
同样极其重要 |
社交礼仪 |
重要 |
几乎无关 |
迭代提问 |
有限度 |
鼓励 |
验证回答 |
需要 |
更加需要 |
情绪管理 |
需要 |
不需要 |
《提问的智慧》的核心智慧——想清楚再问、说清楚你要什么、给足关键信息——不仅没有过时,反而在 AI 时代更加重要。因为 AI 不会像人类专家那样"察言观色"后追问你,它更可能在模糊的提问下自信地给出模糊的答案。
区别在于:原文的智慧有一半是关于人际交往的(礼貌、社区规范、处理冲突),这部分对 AI 交互可以放下;另一半是关于思维方法的(如何定义问题、如何组织信息、如何描述目标),这部分是永恒的。