上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 241 篇相关文章 · 第 1 / 13 页

Mac下CC升级了2.1.118 MODEL里4.7的1M上下文怎么没有了?

怎么没有了?没得选了啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-04 08:34:18+08:00

Agent 开发实际在做什么?

貌似 Agent 开发比较火。 我理解 Agent 开发就是围绕大模型(作为智能引擎),弥补大模型的不足(上下文限制,稳定性,不懂行业知识)。 感觉还是有点抽象,希望业内人士介绍一下。 在打造 AI 产品? 在流程上引入 AI 为公司降本增效?

tech www.v2ex.com 2026-05-04 00:33:09+08:00

codex记忆混乱、记忆漂移、重新读档

我发现codex在使用过程中会经常出现记忆混乱、记忆漂移、重新读档的现象,特别是在上下文快满的时候出现。具体表现是:我经过了几轮对话 A → B → C → … F codex在执行F任务的过程中会突然跳回到对话A之后重新开始。。。。。。 3 个帖子 - 3 位参与者 阅读完整话

tech linux.do 2026-05-03 21:31:18+08:00

Codex记忆混乱、记忆漂移、重新读档

我发现codex在使用的过程中,特别是在上下文快满的时候很容易会出现记忆混乱、记忆漂移、重新读档的现象。具体表现是:我对话几轮后A → B → C → …F ,codex正常执行任务F,突然会跳回到之前的对话A .然后又开始重复。。。。。。 4 个帖子 - 4 位参与者 阅读完整

tech linux.do 2026-05-03 21:24:02+08:00

这MIMO的网页端是不是被降智过了?

感觉用起来思路不够发散,一遇到什么就问你要干啥,这长上下文下表现情况也不是很好。2api之后一直总结还有中断。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-03 20:54:54+08:00

求助codex或sub2api如何设置模型上下文长度和自动压缩

我用的是自建的sub2api反代plus账号,但是现在我找不到哪里可以设置模型上下文长度和自动压缩,我在本地输入/compact似乎也无法压缩上下文。我记得之前账号使用官方的登录的时候正常是300k左右上下文,可以自动压缩,换了自建就不行了 求问该怎么办 1 个帖子 - 1 位参

tech linux.do 2026-05-03 15:44:15+08:00

怎么感觉deepseek-v4-pro max在超过400k上下文时,注意力机制缺陷很大?

一个重构项目,多终端一直卡着无法debug完成,表现为ABCDE五个终端,所有输入都只会错误的输入到A终端,且经过多轮debug无法解决。 当从300K上下文Debug到400K上下文时,v4 pro max开始每轮对话添加一个小修复和日志埋点让我测试运行。然后 加埋点→收集日志

tech linux.do 2026-05-02 23:31:02+08:00

关于any接入CPA

any的Claude-opus-4-7怎么接入CPA啊,我接入一直在报“400 1m 上下文已经全量可用,请启用 1m 上下文后重试”,这个要怎么改啊,gpt-5.3-codex就没有问题。还有any的gpt-5.5是不是不能用MCP啊,一直报错“The encrypted co

tech linux.do 2026-05-02 21:13:42+08:00

求助佬友们codex在windows上使用上下文截断问题如何解决?

只有codex这样子无法滚动去看上面的内容,claude就不会出现,大家遇到过这个问题吗?有解决方案吗, 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 16:11:50+08:00

5.5上下文好少,几轮就触发压缩了,有办法吗?

5.5上下文好少,几轮就触发压缩了,有办法吗? 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-02 15:19:16+08:00

Claude code 现在能 /perceive 了

目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感

tech www.v2ex.com 2026-05-02 04:25:47+08:00

[Claude Code] Claude code 现在能 /perceive 了

目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感

tech v2ex.com 2026-05-02 03:25:47+08:00

[Claude Code] Claude code 现在能 /perceive 了

目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感

tech v2ex.com 2026-05-02 03:25:47+08:00

[分享发现] Claude code 现在能 /perceive 了

目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感

tech v2ex.com 2026-05-02 02:08:16+08:00

Gemini官网竟然限制上下文为14轮?

今天试了试长对话,想看看闲聊后能记住多少,结果发现Gemini官网只能记住大概14轮对话,并且是以对话轮次进行计算的,无关用量。多的会被挤掉。 这可能就是为什么Gemini官网中,不能修改用户之前已发送对话的原因? 我用了这么久才知道,我不会是最后一个知道这个的吧 15 个帖子

tech linux.do 2026-05-01 23:34:12+08:00

如何解决gpt5.5用api卡死自动上下文

翻了很多帖子,找不到一个有用的,大概只有一个实测最大上下文270K,怎么解决的也没个方法,现在每次api到自动上下文的时候卡死了就得切正常登录的号把这个人物跑完再切回去 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-01 13:56:42+08:00

有佬友知道星辰家的模型怎么支持1m上下文吗

有佬友知道星辰家的模型怎么支持1m上下文吗,官网上显示支持1M上下文,但是ccswitch直接按照模型名导入之后是200k 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-01 11:46:18+08:00

Owl alpha很可能是美团的Longcat2.0

官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age

tech linux.do 2026-05-01 09:26:17+08:00

cc搭配deepseek,是不是上下文不是1M?

cc搭配deepseek,是不是上下文不是1M?感觉上下文很快就用完了,然后就丢弃前面的开始出现幻觉,越改越不对了。 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-01 09:24:08+08:00

有没有大佬说说glm和dsv4pm哪个好点(

现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-05-01 01:38:49+08:00