要让大模型回答得简单一点并限制字数,可以通过以下几种方式:
调整参数: Temperature:参数值越小,模型返回的结果越确定。对于需要简洁和基于事实的回答,如质量保障(QA)等任务,可设置较低的 temperature 值。 Top_p:调低参数值可获得更准确和事实的答案。一般建议改变 Temperature 和 Top_p 其中一个参数即可。 Max Length:通过调整 max length 来控制大模型生成的 token 数,有助于防止生成冗长或不相关的响应并控制成本。 分治法:对于生成内容较多的情况,可采用分治法分段输出,最后自己拼合。 提供清晰简洁的提示:在询问时不要惜字如金,应包含必要的关键信息,但避免过于复杂冗长,让大模型能准确理解需求,从而给出简洁的回答。