max_tokens | 输出最大字符(中文占两个字符) |
temperature | 使用什么取样温度,0到2之间。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加集中和确定。 |
top_p | 使用温度采样的替代方法称为核心采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1 意味着只考虑包含前 10% 概率质量的token。 我们通常建议更改此设置,但不要同时更改两者。temperature |
n | 为每个提示生成的完成次数。 |
user | 用户唯一值,确保接口不被重复调用 |
suffix | 完成输出后的后缀,用于格式化输出结果 |