做嵌入式开发这几年,AI工具从可有可无变成了日常工作标配。最近在库拉c.kulaai.cn上把主流模型横向对比了一轮,在技术文档和方案设计场景里最终选了Gemini作为主力。但用得越久越发现一件事:同一模型不同用法,效率差距巨大。
今天写一份面向工程师的Gemini实战教程,覆盖五个核心场景,每个场景带真实案例。
一、Gemini的能力边界:先知道它能做什么再上手
Gemini的强项在结构化输出和多模态分析上。技术架构层面,Google在训练数据中对结构化文档和工程数据的处理做了大量优化,这让它在表格输出、对比分析、图表解读上比ChatGPT更稳。
具体来说:多模态能力是它的差异化优势——原理图、PCB布局图、示波器截图都能直接扔进去分析。逻辑推理在方案对比和芯片选型场景下表现突出。格式遵从度很高,要求表格它就给表格,不会"自由发挥"。
短板也很明确:中文润色不如ChatGPT自然,长文档处理不如Claude(上下文窗口的客观差距),引用具体芯片参数和标准编号时有幻觉风险——所有大模型都没根治这个问题。
搞清楚这些边界再用,少走很多弯路。
二、场景一:技术文档撰写(附案例)
工程师最痛苦的事情之一是写文档。硬件规格书、测试报告、设计方案——格式要求严格,手动整理费时费力。
需求:写一份BLE模块的技术规格书。
低效做法:"帮我写一个BLE模块的技术规格书。"
产出一坨文字,信息有但格式不规范,拿到手还得花四十分钟重新排版。
高效做法:"帮我写一个BLE模块的技术规格书。输出格式:1.产品概述(不超过100字);2.电气特性(表格,每行包含参数名、符号、单位、最小值、典型值、最大值、测试条件);3.射频参数(同上表格格式);4.环境规格(表格);5.认证信息(列表形式,标注标准编号和认证状态)。参数引用遵循IEC标准编号格式。"
加了格式约束之后,Gemini的输出直接就是可用的技术文档初稿。实测同一份规格书,不加约束需要手动整理40分钟,加了约束10分钟完成终稿。
这就是"最佳Prompt"的精髓。搜"Gemini提示词模板"能找到很多,但真正管用的就一条:把格式写死,别留自由发挥空间。ChatGPT在格式遵从上偶尔会跑偏,Gemini在这方面稳定性明显更好。
三、场景二:芯片选型与方案对比(附案例)
芯片选型是我用Gemini最多的场景之一。这个场景必须拆步问,一次性扔出去效果很差。
第一轮:"做工业传感器节点MCU选型,关键决策维度有哪些?按优先级排序。"
Gemini输出:功耗、外设资源(ADC精度和通道数、SPI/I2C数量)、封装尺寸、供货周期、价格、开发生态。
第二轮:"从功耗和外设两个维度,对比STM32L433、nRF52832、ESP32-C3,输出表格。每颗芯片标注数据手册中的关键参数。"
Gemini给出一份三列对比表,参数具体到手册级别。
第三轮:"我的场景是4路SPI传感器+1路LoRa通信,电池供电,续航目标2年,待机功耗要求低于5μA。综合推荐哪颗?"
Gemini给出明确推荐、理由和潜在风险。
三轮对话20分钟搞定一个原来要开半天会才能定的选型。这跟Gemini的技术架构有关——聚焦任务下的表现明显优于开放式大问题。ChatGPT在同样场景下偶尔出现前后轮结论矛盾,Gemini的逻辑连贯性更稳。
重要提醒:Gemini引用芯片具体参数时可能编造看似合理的内容。涉及精确参数,一律回数据手册验证。两分钟验证成本远低于因幻觉导致的返工。
四、场景三:代码审查与固件分析(附案例)
Gemini在嵌入式代码审查上的表现出乎意料地好。
需求:审查一段低功耗管理代码。
把代码贴进去之后这样问:"审查以下STM32低功耗管理代码。重点关注:1.休眠模式进入和唤醒逻辑是否正确;2.外设时钟关闭顺序是否合理;3.是否存在导致异常功耗的代码路径;4.中断配置与低功耗模式的兼容性。每个问题标注严重程度(严重/建议/优化)。"
Gemini的输出有具体行号、问题描述、严重程度和修改建议。比一般团队的code review质量还高。
关键技巧是"标注严重程度"。这一条约束让Gemini不会把所有问题平铺出来——它会区分哪些是必须改的bug,哪些是建议优化的地方。ChatGPT在同样的场景下经常把优化建议和严重缺陷混在一起,分不清主次。
另外,Gemini对HAL库和RTOS的理解比较到位,这跟训练数据中技术文档和开源代码的占比有关。
五、场景四:原理图与PCB分析(附案例)
多模态能力是Gemini相对ChatGPT和Claude最大的差异化优势。
把原理图截图扔进去,然后问:"分析以下电源管理电路原理图。请识别:1.电源拓扑结构(LDO/DC-DC/Buck-Boost);2.输入输出电压和电流参数;3.关键元器件(电感、电容、二极管)的选型是否合理;4.潜在的设计风险(如纹波、热设计、EMC)。"
Gemini能直接识别电路拓扑、读取元器件参数标注、判断选型合理性。这在以前需要找资深工程师花半小时review的工作,现在两分钟搞定。
ChatGPT的多模态能力在持续追赶,但在电路图这种专业场景下Gemini目前更稳。Claude的多模态起步较晚,暂时不在同一水平。
注意:Gemini对复杂原理图的识别不是100%准确,尤其是密密麻麻的多页原理图。用它做初筛,最终review还是要靠人。
六、场景五:测试报告生成(附案例)
需求:把测试数据整理成标准化报告。
高效做法:"以下是我们做的EMC测试原始数据(附表格)。请整理成标准化测试报告,格式如下:1.测试概述(产品型号、测试标准、测试日期、测试机构);2.测试结果汇总(表格,列含测试项目、标准限值、实测值、判定结果Pass/Fail);3.不合格项分析(如有,含超标幅度和可能原因);4.改进建议。遵循CISPR 32标准编号格式。"
Gemini的输出直接就是一份可提交的EMC测试报告初稿,格式规范、判定准确、建议可落地。
这类重复性文档工作交给Gemini效率提升最明显。把格式要求固化成模板之后,每次只需要替换数据,十分钟出一份报告。
接入方式与行业趋势
两种主流接入路径:
Google Vertex AI:适合深度使用Google Cloud生态的团队,Gemini接入方式最顺滑,和IoT Core、Cloud Functions的集成很自然,适合做设备数据的实时分析。
Amazon Bedrock:适合需要多模型调度的场景,可以在Gemini、Claude、Llama之间按任务类型灵活分配。
行业趋势很明确:多模型协同是主流方向。Gemini企业案例和行业解决方案中,纯单模型部署越来越少。工程师的最佳实践是——Gemini做方案框架和多模态分析,ChatGPT做中文文档润色,Claude做长数据手册摘要。各司其职,总效率比单押一个模型高很多。
写在最后
五个场景、五个案例:技术文档、芯片选型、代码审查、原理图分析、测试报告。每个场景都有明确的高效用法和低效用法对比。
核心方法论:格式写死、任务拆步、角色定位、追问深挖。四条做到,Gemini的效率翻倍是实实在在的。
但有一条底线不能丢:涉及具体技术参数,一律回数据手册验证。AI幻觉在工程场景下的代价远高于其他领域——一个错误的参数可能意味着整板返工。花两分钟验证,省两天返工。
270