先说结论:默认参数只发挥了六成功力
很多人用 Gemini 3.1 Pro,就是打开对话框直接提问。能用吗?能。但说实话,这相当于开了一辆性能车却一直挂着D挡走市区。
Google 这次在 3.1 Pro 上给了相当宽的参数调节空间——temperature、top_p、top_k、system_instruction,再加上 max_output_tokens 和 stop_sequences,组合起来能覆盖从代码生成到创意写作的几乎所有场景。
问题在于,大部分人不知道该怎么调。
Temperature:最容易被误解的参数
Temperature 控制的是输出的"随机性",取值范围 0.0 到 2.0,默认大约在 0.75 左右。
但这里有个常见误区:很多人觉得 temperature 越低越好,因为"确定性高"。实测下来并不是这样。
代码生成场景,建议 0.2 到 0.4。你需要的是准确和规范,不需要模型发挥创意。低 temperature 下,Gemini 3.1 Pro 输出的代码结构稳定,变量命名一致,适合直接拿去跑。
技术文档撰写,0.5 到 0.7 是甜区。太低会显得机械,太高会让专业术语出错。
创意写作、头脑风暴,可以推到 0.9 甚至 1.2。这个区间模型会给出更多跳跃性的联想,适合需要灵感的场景。
超过 1.2 之后,输出质量会明显下降,废话增多,逻辑链条断裂的概率大幅上升。除非你在做实验,否则不建议日常使用。
Top-P 和 Top-K:精细控制候选词范围
这两个参数经常被混为一谈,但作用机制不同。
Top-K 限制的是每一步只考虑概率最高的 K 个 token。设成 40,意味着模型只从排名前 40 的候选词里选。数值越小,输出越保守。
Top-P 则是累积概率阈值。设成 0.9,意味着模型会从候选词中依次累加概率,直到总和达到 90% 为止,剩下的直接丢弃。
实际操作建议:如果你只调一个,优先调 Top-P。它的适应性比 Top-K 更好——在模型信心高的时候候选池自动收窄,信心低的时候自动放宽。
做数据分析类任务,Top-P 设 0.85,Top-K 设 30,配合低 temperature,输出会非常聚焦。
做开放域对话,Top-P 设 0.95,Top-K 设 60 或更高,让模型有更多选择空间。
System Instruction:被严重低估的武器
大部分人忽略的其实是 system_instruction。这东西看起来就是一段系统提示词,但用好了效果差别巨大。
举个例子,你在做代码审查。直接问"帮我 review 这段代码",和在 system_instruction 里写"你是一个资深后端工程师,专注于性能优化和安全漏洞排查,输出格式为问题编号+严重等级+修改建议",拿到的结果完全不是一个量级。
关键点在于:system_instruction 定义角色和输出格式,用户消息只放具体内容。这个分离做对了,Gemini 3.1 Pro 的输出稳定性会提升一个台阶。
另外,system_instruction 支持多轮对话中保持不变,这意味着你可以把一套评估框架钉死在那里,每次只替换分析对象。
场景化配置速查
整理了几个高频场景的推荐配置:
代码生成:temperature 0.3,top_p 0.85,top_k 30,max_output_tokens 根据项目规模设 2048 到 8192。
长文写作:temperature 0.65,top_p 0.92,top_k 50,system_instruction 里明确文章结构和字数要求。
数据提取与清洗:temperature 0.1,top_p 0.8,配合 JSON 模式输出,基本不会出格式错误。
多语言翻译:temperature 0.4,top_p 0.9,system_instruction 中指定源语言和目标语言的专业领域(比如"医学文献翻译")。
这些配置不是拍脑袋定的,是反复测试后沉淀下来的。当然,具体项目还需要微调,但至少有个起点比从零开始强。
在整理这些参数组合的过程中,我参考了几个工具整合站点的实测数据,其中 t.myliang.cn 上的对比分析做得比较直观,适合快速查阅不同配置下的输出差异。
和 Claude、GPT-4o 的参数生态对比
说句公观的话,Gemini 3.1 Pro 在参数调节的灵活度上已经追平甚至超过了同级别的竞品。
Claude 的参数调节相对封闭,temperature 是核心变量,但 top_p 的控制粒度不如 Gemini 细致。GPT-4o 在 API 层面给了足够的自由度,但默认配置下创意性偏弱,需要手动推高 temperature 才能获得类似 Gemini 默认值的表现。
Google 的优势在于多模态参数可以独立调节——处理图片和处理文本时用不同的 temperature,这在竞品里还不多见。
趋势判断:参数调节正在变成核心技能
2026 年的一个明显趋势是:AI 模型的能力差距在缩小,但使用水平的差距在拉大。
同样用 Gemini 3.1 Pro,会调参的人和不会调的人,产出质量可以差两三倍。这不是夸张——system_instruction 写得好,相当于给模型装了一个"专业大脑",效果远超花时间写复杂的 prompt。
未来半年,随着 Gemini API 生态进一步开放,围绕参数优化的工具链会越来越多。现在就开始建立自己的参数模板库,比等到大家都学会了再追赶要划算得多。
别把 Gemini 3.1 Pro 当搜索引擎用。它是引擎,你是驾驶员,参数就是你的方向盘和油门。
448