[GH-ISSUE #64] 需要增加max_tokens加入请求参数 #42

Open
opened 2026-02-27 01:55:56 +03:00 by kerem · 4 comments
Owner

Originally created by @JackCmd233 on GitHub (Mar 1, 2025).
Original GitHub issue: https://github.com/ErlichLiu/DeepClaude/issues/64

Originally assigned to: @GowayLee on GitHub.

我刚刚给DeepClaude 传入了一个 max_tokens为9999999, 但是它貌似并没有把max_tokens 发送给 API服务方,也就是说max_tokens没有生效。

Originally created by @JackCmd233 on GitHub (Mar 1, 2025). Original GitHub issue: https://github.com/ErlichLiu/DeepClaude/issues/64 Originally assigned to: @GowayLee on GitHub. 我刚刚给DeepClaude 传入了一个 max_tokens为9999999, 但是它貌似并没有把max_tokens 发送给 API服务方,也就是说max_tokens没有生效。
Author
Owner

@GowayLee commented on GitHub (Mar 1, 2025):

max_tokens作为参数确实还没有同步传入的逻辑. 需要增加上去

<!-- gh-comment-id:2691853684 --> @GowayLee commented on GitHub (Mar 1, 2025): max_tokens作为参数确实还没有同步传入的逻辑. 需要增加上去
Author
Owner

@JackCmd233 commented on GitHub (Mar 1, 2025):

既然要设置max_tokens,为什么不给每个模型单独设置呢?
因为我用的是Docker,我就用docker举例吧

DEEPSEEK_MAX_TOKENS: 16384
CLAUDE_MAX_TOKENS: 16384
OPENAI_MAX_TOKENS: 999999

这样分别设置3个不同的参数,也可以方便调整。

甚至可以更进一步,把温度、TOP-P都可以设置参数,在发送请求的时候读取 拼接就好了。

<!-- gh-comment-id:2691875924 --> @JackCmd233 commented on GitHub (Mar 1, 2025): 既然要设置max_tokens,为什么不给每个模型单独设置呢? 因为我用的是Docker,我就用docker举例吧 DEEPSEEK_MAX_TOKENS: 16384 CLAUDE_MAX_TOKENS: 16384 OPENAI_MAX_TOKENS: 999999 这样分别设置3个不同的参数,也可以方便调整。 甚至可以更进一步,把温度、TOP-P都可以设置参数,在发送请求的时候读取 拼接就好了。
Author
Owner

@GowayLee commented on GitHub (Mar 1, 2025):

既然要设置max_tokens,为什么不给每个模型单独设置呢? 因为我用的是Docker,我就用docker举例吧

DEEPSEEK_MAX_TOKENS: 16384 CLAUDE_MAX_TOKENS: 16384 OPENAI_MAX_TOKENS: 999999

这样分别设置3个不同的参数,也可以方便调整。

甚至可以更进一步,把温度、TOP-P都可以设置参数,在发送请求的时候读取 拼接就好了。

现在代码中已经做了将客户端的[温度, Top-p, presence_penalty, frequency_penalty]四个参数加入请求中. 所以加入max_tokens很方便, 只需要再加入一个参数就行了. 不需要在环境变量中设置.

<!-- gh-comment-id:2691879816 --> @GowayLee commented on GitHub (Mar 1, 2025): > 既然要设置max_tokens,为什么不给每个模型单独设置呢? 因为我用的是Docker,我就用docker举例吧 > > DEEPSEEK_MAX_TOKENS: 16384 CLAUDE_MAX_TOKENS: 16384 OPENAI_MAX_TOKENS: 999999 > > 这样分别设置3个不同的参数,也可以方便调整。 > > 甚至可以更进一步,把温度、TOP-P都可以设置参数,在发送请求的时候读取 拼接就好了。 现在代码中已经做了将客户端的[温度, Top-p, presence_penalty, frequency_penalty]四个参数加入请求中. 所以加入max_tokens很方便, 只需要再加入一个参数就行了. 不需要在环境变量中设置.
Author
Owner

@minghuayao81 commented on GitHub (Mar 5, 2025):

首先,如果用例如cherry studio的wrapper,那么这些需求应该在这类wrapper的setting里就有:

Image

其次,如果是无界面或者lite界面环境中,确实是一个真需求;但需要在设计中考虑兼容性问题,比如在代码配置段就设置了这些参数,那么在界面端的设置可能和代码端会形成冲突,是否又需要一个toggle来开关代码端的这些配置,又或者是某种override逻辑(假设很多用户是用类似cherry studio这类重界面应用的)

<!-- gh-comment-id:2699715317 --> @minghuayao81 commented on GitHub (Mar 5, 2025): 首先,如果用例如cherry studio的wrapper,那么这些需求应该在这类wrapper的setting里就有: ![Image](https://github.com/user-attachments/assets/86783037-3086-4e92-9e9f-e3e8a2e5cc36) 其次,如果是无界面或者lite界面环境中,确实是一个真需求;但需要在设计中考虑兼容性问题,比如在代码配置段就设置了这些参数,那么在界面端的设置可能和代码端会形成冲突,是否又需要一个toggle来开关代码端的这些配置,又或者是某种override逻辑(假设很多用户是用类似cherry studio这类重界面应用的)
Sign in to join this conversation.
No milestone
No project
No assignees
1 participant
Notifications
Due date
The due date is invalid or out of range. Please use the format "yyyy-mm-dd".

No due date set.

Dependencies

No dependencies set.

Reference
starred/DeepClaude#42
No description provided.