在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能?
在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第14页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2490 篇相关文章 · 第 14 / 125 页
在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token
最近薅到了mimo和glm的一些token想用来试试代码功能 目前主要是使用codex app,用codexmanager本地中转 想了解一下codex能不能使用第三方模型,请佬们指导一下 4 个帖子 - 3 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
中转站和公益站里的各种模型,标的什么模型就是什么模型吗? 我接到我的sub2api里,再问它是什么模型,问不出来是什么模型。 怎么能看是什么模型呢? 11 个帖子 - 10 位参与者 阅读完整话题
这两天都在申请MIMO激励计划,我也申请了,申请到了2e, 但是感觉问一句话就消耗不少额度,不知道是怎么计算的,一开始接入TRAE总是404,后面发现是TRAE的问题解决了,接着让他分析代码总是卡住: 每次都是我自己手动停止然后重试,过了一会又是会没反应,在思考中能卡很久,想问问
我用的是cc switch,不知道怎么配置,才能进用openrouter的web_search功能,我在cc switch中的配置文件中写了web_search = “disabled”,貌似不生效,还是回调用这个联网搜索的工具,产生费用,敢问佬友们,怎么配置才能关闭这个联网搜索
充值完调用模型立即提示 The request is prohibited due to a violation of provider Terms Of Service. 在找到绕过方案前建议先不要充值了,要是剩的余额多的话真要亏死了 现在有什么解决方案吗,能想到的兜底方案是用
5 个帖子 - 5 位参与者 阅读完整话题
佬们,我正在打黑客松,我需要一些场景或Prompt是只有某个模型能回答正确或者正确处理的,比如某个需求是只有Grok能正确处理而GPT和Claude做不到的。 场景仅限于日常对话、搜索。写代码和长程推理不需要。 我知道的是Grok能搜到更新的内容,Claude日常对话更自然,但是
gpt还剩几天就过期了,眼看渠道也没了,考虑换成国产的模型,我用量不大,一个月大概能用plus的一个周限,求推荐codingplan或者我这个用量直接用token是不是更便宜了 20 个帖子 - 11 位参与者 阅读完整话题
关于之前的帖子,我有过关于 claude code 缓存的疑问,我后面更新了一下,决定再开一篇帖子,转述一遍,从评论区转述我自己哈哈 OpenAI Response 缓存字段分析,OpenCode,Codex,CC-Switch,中转厂商,New API 开发调优 经过我的一些调
The Verge – 30 Apr 26 OpenAI’s new security model is for ‘critical cyber defenders’ only Like Anthropic’s Mythos, GPT-5.5-Cyber will first b
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
很是苦恼,最近有比赛,去咸鱼上花14买了个上车位,就想问一个问题,结果怎么弄都是mini模型,飞快乱说 我知道大概是ip问题,但目前没有家宽可用,换了几个节点都不行,求佬友支招,能否给我一次提问pro的机会,有偿 1 个帖子 - 1 位参与者 阅读完整话题
我体感没用多少次,很快就提示限制了。
WIRED – 30 Apr 26 Elon Musk Seemingly Admits xAI Has Used OpenAI’s Models to Train Its Own While answering questions under oath, Musk argued
我体感没用多少次,很快就提示限制了。
我体感没用多少次,很快就提示限制了。
企业内部最初使用提示词+大模型构建的应用,最近处理龙虾和hermes等agent,非常智能,而且比langchain或者springai等都更完备。因此想讨论下现在企业内部用hermes作为核心框架+各种skills能否直接落地? 3 个帖子 - 2 位参与者 阅读完整话题
Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem