最近逛库拉c.myliang.cn的时候有个感受——AI工具已经多到让人选择困难了,但真正拉开差距的从来不是选哪个模型,而是你怎么跟它说话。我在电子行业做了几年技术内容,日常工作重度依赖AI辅助,今天把踩过的坑和真正管用的技巧整理出来,不讲概念,只聊能直接用的东西。
先说一个残酷事实
大部分人用ChatGPT的方式,本质上还是在用搜索引擎。
"帮我写个方案""这段代码什么意思""介绍一下5G技术"——这种问法得到的回答,和你百度搜出来的区别不大,甚至更啰嗦。因为你在用2015年的交互习惯,去驱动2025年的工具。
ChatGPT不是搜索引擎,它更像一个能力极强但需要你指挥的新员工。你不给方向,它就自由发挥;你给错了方向,它就南辕北辙。提效的关键从来不在于模型有多强,而在于你的"管理能力"。
真正好用的指令结构:CRIC框架
我实践下来总结了一个简单的四步结构,记为CRIC,每次写Prompt都过一遍:
C - Context(上下文): 这个任务的背景是什么。比如"我正在给一个IoT模组写技术白皮书,目标读者是硬件工程师"。
R - Role(角色): 你需要模型站在什么立场。比如"你是一个有十年经验的技术文档工程师"。
I - Instruction(指令): 具体要做什么。比如"请为第二章写一段关于低功耗设计的说明,控制在300字以内"。
C - Constraint(约束): 不要做什么、格式要求、参考标准。比如"不要出现营销话术,技术参数用表格呈现,参考IEEE规范的表述方式"。
四步走完,模型的输出基本不会跑偏。对比那种一句话提问的方式,差距大概相当于"开手动挡"和"开自动挡"——不是说手动挡到不了目的地,但你得累很多。
一个最容易被忽略的技巧:让模型先问你
这招我称之为"反向提问法"。
在Prompt最后加一句:"在开始之前,如果你需要任何额外信息来提高输出质量,请先向我提问。"
效果出奇地好。因为很多时候我们自己都没想清楚要什么,模型也不可能凭空猜到。让它先反问几个关键问题,你补充完信息之后,第二轮输出的质量会直接上一个台阶。
举个实际场景:我让模型帮我写一个嵌入式产品的竞品分析,第一版出来泛泛而谈。后来我先让它提问,它问了"目标竞品有哪些""分析维度偏技术还是偏市场""输出给谁看",我逐条回答之后,第二版出来的内容直接能用,基本不用改。
本质上这是在用模型帮你做需求澄清,比自己闷头想高效得多。
对比思维:同一道题让两个模型做
做技术内容的人都知道,单一信源不靠谱。用AI也是一个道理。
我现在的习惯是复杂任务至少用两个模型交叉验证。比如写技术方案,先用GPT-4出框架和逻辑推演,再用国产模型做中文表达的润色和本地化适配。两个模型的强项不一样——前者在逻辑链推理上更扎实,后者在中文语感和行业术语上更自然。
这不是说哪个更好,而是组合使用的效果远大于单独使用。就像做硬件设计,FPGA和MCU各有适用场景,混着用才是最优解。
手动切换账号确实麻烦,所以现在我也越来越多地用聚合类平台来并行测试,一次出多份结果直接对比,省下来的精力用在内容本身上。
工程师最容易踩的三个坑
坑一:把一次输出当最终结果。
没有任何Prompt能一步到位给出完美答案。正确的工作流是"初稿→审查→追问→微调",至少跑两到三轮。第一轮是原材料,后面几轮才是加工。
坑二:过度描述需求。
写了一大段背景介绍,模型反而抓不住重点。指令要短而精,关键词前置,核心约束加粗或者单独列出来。模型处理信息的方式和人一样——开头和结尾的权重最高,中间容易被忽略。
坑三:不给负面约束。
告诉模型"要专业、要全面、要有深度"基本等于没说,因为这些是正确的废话。真正有效的是告诉它"不要用套话开头""不要编造不存在的数据""不要超过800字"。约束越具体,输出越可控。
趋势观察:AI使用门槛正在从"会写代码"变成"会写Prompt"
回头看技术发展的规律,每次重大工具变革都会重新定义"基础技能"。互联网时代的基础技能是搜索,移动互联网时代是App操作,到了AI时代,这项技能就是精准的自然语言指令能力。
这个趋势在工业领域尤其明显。嵌入式工程师如果会写Prompt,固件文档效率能翻倍;硬件工程师用好AI,BOM分析和选型对比可以自动化大半。问题在于,大部分工程师还没意识到这是一项值得刻意练习的技能。
等到所有人的工作流都嵌入了AI,效率差距就会体现在谁更会"使唤"它。现在投入时间学Prompt,就像当年学Git一样——当时觉得多此一举,后来发现不会根本没法干活。
工具从来不缺,缺的是用工具的人。与其焦虑AI会不会取代你,不如先学会让AI替你干活。
335