佬们有没有发现deepseek专家版会切模型?
最近用deepseek的专家版,我习惯问上下文来看版本,有时候发现一个对话,问过多轮问题后,问上下文,会说是128k,难道目前仍然是随机模型? 8 个帖子 - 5 位参与者 阅读完整话题
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 248 篇相关文章 · 第 1 / 13 页
最近用deepseek的专家版,我习惯问上下文来看版本,有时候发现一个对话,问过多轮问题后,问上下文,会说是128k,难道目前仍然是随机模型? 8 个帖子 - 5 位参与者 阅读完整话题
想问问各位佬友知不知道Claude Mac桌面端opus 4.6怎么开启1m上下文呀 2 个帖子 - 2 位参与者 阅读完整话题
怎么没有了?没得选了啊 1 个帖子 - 1 位参与者 阅读完整话题
貌似 Agent 开发比较火。 我理解 Agent 开发就是围绕大模型(作为智能引擎),弥补大模型的不足(上下文限制,稳定性,不懂行业知识)。 感觉还是有点抽象,希望业内人士介绍一下。 在打造 AI 产品? 在流程上引入 AI 为公司降本增效?
貌似 Agent 开发比较火。 我理解 Agent 开发就是围绕大模型(作为智能引擎),弥补大模型的不足(上下文限制,稳定性,不懂行业知识)。 感觉还是有点抽象,希望业内人士介绍一下。 在打造 AI 产品? 在流程上引入 AI 为公司降本增效?
我发现codex在使用过程中会经常出现记忆混乱、记忆漂移、重新读档的现象,特别是在上下文快满的时候出现。具体表现是:我经过了几轮对话 A → B → C → … F codex在执行F任务的过程中会突然跳回到对话A之后重新开始。。。。。。 3 个帖子 - 3 位参与者 阅读完整话
我发现codex在使用的过程中,特别是在上下文快满的时候很容易会出现记忆混乱、记忆漂移、重新读档的现象。具体表现是:我对话几轮后A → B → C → …F ,codex正常执行任务F,突然会跳回到之前的对话A .然后又开始重复。。。。。。 4 个帖子 - 4 位参与者 阅读完整
感觉用起来思路不够发散,一遇到什么就问你要干啥,这长上下文下表现情况也不是很好。2api之后一直总结还有中断。 1 个帖子 - 1 位参与者 阅读完整话题
我用的是自建的sub2api反代plus账号,但是现在我找不到哪里可以设置模型上下文长度和自动压缩,我在本地输入/compact似乎也无法压缩上下文。我记得之前账号使用官方的登录的时候正常是300k左右上下文,可以自动压缩,换了自建就不行了 求问该怎么办 1 个帖子 - 1 位参
一个重构项目,多终端一直卡着无法debug完成,表现为ABCDE五个终端,所有输入都只会错误的输入到A终端,且经过多轮debug无法解决。 当从300K上下文Debug到400K上下文时,v4 pro max开始每轮对话添加一个小修复和日志埋点让我测试运行。然后 加埋点→收集日志
any的Claude-opus-4-7怎么接入CPA啊,我接入一直在报“400 1m 上下文已经全量可用,请启用 1m 上下文后重试”,这个要怎么改啊,gpt-5.3-codex就没有问题。还有any的gpt-5.5是不是不能用MCP啊,一直报错“The encrypted co
只有codex这样子无法滚动去看上面的内容,claude就不会出现,大家遇到过这个问题吗?有解决方案吗, 1 个帖子 - 1 位参与者 阅读完整话题
5.5上下文好少,几轮就触发压缩了,有办法吗? 5 个帖子 - 3 位参与者 阅读完整话题
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
今天试了试长对话,想看看闲聊后能记住多少,结果发现Gemini官网只能记住大概14轮对话,并且是以对话轮次进行计算的,无关用量。多的会被挤掉。 这可能就是为什么Gemini官网中,不能修改用户之前已发送对话的原因? 我用了这么久才知道,我不会是最后一个知道这个的吧 15 个帖子
翻了很多帖子,找不到一个有用的,大概只有一个实测最大上下文270K,怎么解决的也没个方法,现在每次api到自动上下文的时候卡死了就得切正常登录的号把这个人物跑完再切回去 3 个帖子 - 3 位参与者 阅读完整话题
有佬友知道星辰家的模型怎么支持1m上下文吗,官网上显示支持1M上下文,但是ccswitch直接按照模型名导入之后是200k 2 个帖子 - 2 位参与者 阅读完整话题