最近已GLM-4.5/4.6/Air/Flash、Qwen3...等为主,均推出了思考、非思考混合类型的大模型,支持通过参数值开启或关闭思考模式,不论开源还是闭源的「Eding.ICU域名工具箱」均以完美适配。
目前不同家的模型情况不同,以前的非混合模型部分不支持思考参数,携带此参数默认会忽略,小部分平台会报错,而混合模型不携带此参数默认是开启思考的,若关闭就需要携带此参数并传入关闭值。
所以,本次域名工具箱更新后已支持三种情况可选择:
- 不插入参数;
- 插入参数并开启思考模式;
- 插入参数并关闭思考模式;
以上,即可解决大家不想让模型思考并使用最新的混合模型,或者干脆不使用混合模型多种配置问题。
当前也同样支持额外参数插入功能,优先级最高,若有相同json键存在可以覆盖参数值,所以支持修改temperature、 top_p等默认值。
本工具默认请求的json内容,除了messages、model、stream参数是由程序自己搞定的,其他参数均可覆盖修改。
以下是默认携带请求体内容:
{
    "messages": [
        {
            "content": "你是谁?",
            "role": "user"
        }
    ],
    "model": "glm-4.5-flash",
    "stream": true,        // 简单模式开启流,其他模式默认不开启。
    "temperature": 1,
    "top_p": 1,
    "n": 1,
    "presence_penalty": 0, // 腾讯混元不支持此参数,默认已移除,额外不要添加此参数了,会出错。
    "frequency_penalty": 0
}
额外添加参数功能可以这样修改已存在的值:(不存在则添加,存在则修改,更多参数参考所用大模型官方文档)
{
    "temperature": 0.9,      //温度参数,控制生成文本的随机性,范围通常在0到1之间,值越高,生成的文本越随机
    "top_p": 0.8,            //核采样参数,控制生成文本的多样性,范围通常在0到1之间,值越高,生成的文本越多样化
    "n": 1,                  //生成响应的数量,表示模型每次调用时生成多少个不同的响应
    "frequency_penalty": 0,  //频率惩罚参数,控制模型对重复词语的惩罚程度,范围通常在-2到2之间,正值表示惩罚重复词语,负值表示奖励重复词语
    "presence_penalty": 0    //存在惩罚参数,控制模型对新话题的引入程度,范围通常在-2到2之间,正值表示奖励引入新话题,负值表示惩罚引入新话题
     // ※重要说明:以上为工具箱自带全部参数值,更多参数请参考官方文档,腾讯混元不支持最后一个参数,不要再额外添加,否则会报错
}
当前功能暂未集成Ollama和LM Studio的开启、关闭思考模式参数。
至于原因吗?是我忘记了!
这两天研究了一下,可禁用插入思考参数,并通过额外参数的添加开启或关闭思考模式。
Ollama关闭思考方式:
{
    "think": false
}
(GPT-OSS 需要 think 设置为 "low"、"medium" 或 "high"。对于该模型,传递 true/false 会被忽略。)
LM Studio关闭思考方式:
- 先勾选设置中Developer栏目的『在API响应中区分 reasoning_content 和 content(如适用)』;
- Prompt(对话指令)末尾加上『/no-think』即可;
总结:
本工具的AI大模型的设置,看似复杂实则简单,看图更容易理解。
不同大模型属于不同平台,禁用思考参数格式也不同,目前的适配基本全部搞定。
若使用Ollama或LM Studio本地API接口,则参数名或禁用方式以Ollama或LM Studio为准。
使用哪个平台的API就以哪个平台的文档为准,同样是Qwen3开源模型,使用硅基流动就选择硅基流动的关闭思考方式即可,使用Ollama就通过额外参数添加对应的json内容即可,使用LM Studio也是如上面的说明搞吧。
开发不易,能否坚持下去,就看各位是否愿意支持一下VIP啦,不愿意也无妨,请帮我介绍给你的朋友吧,感谢!!!
花有重开日,人无再少年~



 
				
评论(0)