mirror of
https://github.com/ErlichLiu/DeepClaude.git
synced 2026-04-25 05:05:57 +03:00
[GH-ISSUE #98] [Question]: 思考链 的智商是否会影响 输出的智商?(如何不让队友变猪?) #67
Labels
No labels
bug
documentation
duplicate
enhancement
good first issue
help wanted
invalid
pull-request
question
wontfix
No milestone
No project
No assignees
1 participant
Notifications
Due date
No due date set.
Dependencies
No dependencies set.
Reference
starred/DeepClaude#67
Loading…
Add table
Add a link
Reference in a new issue
No description provided.
Delete branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Originally created by @KingPollux on GitHub (Mar 16, 2025).
Original GitHub issue: https://github.com/ErlichLiu/DeepClaude/issues/98
提问前确认
问题类别
概念理解
您的问题
最近在对比测试中,发现,Deepseek在思考某些问题的时候,会在思考链中得出他自以为是的答案,这条思考链还会特别长。然后他自己会“觉得”(在思考链)这样告诉 用户才对(偶尔还附带:不对就是他的问题)。
那问题来了,他这自我感觉优良的思考,会不会对后方友军造成严重误导?
如何限制他给出的只是一个方向,框架。而不是一个错误的答案,然后还以为一定是对的,不对就让用户改他的东西。😅
我的测试还不够大量,只是提出一点点疑问。期待大家讨论。
背景信息
他的思考:

他得到的结果:
但是同一个问题,claude 自己做可能第一次就能基本答对了,稍微纠正就能完美运行。(我这只是一个很小很小的问题。而已啦)
代码示例(如适用)
其他信息
No response
@KingPollux commented on GitHub (Mar 16, 2025):
不懂代码,所以我就瞎说一下。说错请谅解。
有没有一种可能,就是对思考链和回答的两个模型分别设置 Temperature?也不知道会不会对最终引用的API造成影响。
这样,可以限制住某个LLM的发散度。
@GowayLee commented on GitHub (Mar 16, 2025):
这个问题确实存在, 我的发现是有时候deepseek会对着一个问题陷入递归推理, 导致思维链特别长而且对回答的claude来说都是无意义的干扰内容.
但是递归推理的问题仍然无法从源头解决, deepclaude作为应用层, 比较难以优雅地解决这种模型层的问题.
思考框架 的概念也是我们后续更新的可能方向. 不仅需要设置不同的temperature, 还可以使用不同的prompt来使模型的回答效果更加可控.
@KingPollux commented on GitHub (Mar 16, 2025):
太好了,期待后续更新。
也许限制Deepseek的temperature,可以一定程度上避免他陷入递归推理。
另外,似乎也可以单独给Deepseek一个预提示词(抱歉,对一个代码外行,会有很多非标名词出现😋)。我的意思事,就比如“沉浸式翻译”这个浏览器插件里,它调用API的时候,是预选给LLM设置一个提示词,让他乖乖的只做翻译,而不要去胡思乱想,或“给出答案”。也许这样能让他“只给出解答用户问题的框架”,这样后方队友就能收到一个纯粹的解答框架。
顺便提一个小期待:
@GowayLee commented on GitHub (Mar 17, 2025):
#86