零刻 Mate Pro 多功能扩展坞上市:USB4 v2 上下行 + 4 盘位,1059 元
IT之家 4 月 22 日消息,零刻 (Beelink) 昨日宣布其 EX Mate Pro 一体化多功能扩展坞正式国行上市,售价 1059 元。 EX Mate Pro 内置 140W 电源和主动散热系统, 拥有一对 USB4 v2 (80Gbps) 上下行 Type-C 接口
上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 287 篇相关文章 · 第 13 / 15 页
IT之家 4 月 22 日消息,零刻 (Beelink) 昨日宣布其 EX Mate Pro 一体化多功能扩展坞正式国行上市,售价 1059 元。 EX Mate Pro 内置 140W 电源和主动散热系统, 拥有一对 USB4 v2 (80Gbps) 上下行 Type-C 接口
感觉这么上下的一致性都还蛮强的, UI等细节基本没有啥变化 6 个帖子 - 6 位参与者 阅读完整话题
最新使用gpt开发一个比较大的客户端flutter项目,后端开发还行,前端实在受不了了。用大善人any来改造前端,用的是vscode的cc插件,正常问答可以,但是只要上传几个图片,两三轮对话就报错了,错误如下 Request too large (max 32MB). Try w
某用户使用 kimi 的时候,kimi 将其他人的简历发给了他,和上下文完全不相干,被泄露简历的当事人已被 kimi pm 联系 相关帖子 3 个帖子 - 3 位参与者 阅读完整话题
就是上下文默认最大258k的情况下,一个free号会不会可能出现 一次顶格上下文的请求 完不成的情况???如果会的话,那free号实在是没什么意义了… 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 21 日消息,OpenAI 为其 Codex 应用推出了 Chronicle 功能,该功能通过屏幕录制构建记忆库,Codex 可将这些记忆作为后续任务的上下文参考,从而无需用户每次重新说明,就能知晓其所指内容、使用的工具以及正在进行的项目。 据IT之家了解,Ch
聊聊大家觉得性价比最高的coding plan是哪一款,我目前用的是minimax 感觉一般,coding不是很强,上下文长了就乱答,加入到cursor里还经常回答一堆英文内容,就算提示词让他中文回答也不行 18 个帖子 - 16 位参与者 阅读完整话题
any(大概)在长上下文后一直出错,然后重试它好像还会思考一会(等了一会之后cc才再次进行重试,而且时间很长,特别的长,最后的报错我每次都等不及所以没发) 并且一旦开新会话,马上就正常了,我猜是因为上下文太长了,并且看似请求了1m,实际上不是1m(导致超了,且没有自动总结)? 1
之前 Qwen 3.6 Plus 测试的时候,好像一开始也是不支持多模态输入,应该不至于是模型本身不支持吧。 3 个帖子 - 2 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
Error running remote compact task: stream disconnected before completion: err or sending request for url ( https://chatgpt.com/backend-api/c
如题。如果在cc中体验开启: oh-my-claude-code Everything Claude Code GetStuffDone(GSD) OpenSpec … 这会导致上下文很快爆炸…在一个项目里开了个 /init 直接跑了45%的 ConText… 针对这些烧toke
最近使用编写了一个小项目,主要功能为使用AI进行小说创作,但是经过多次修改和优化,前面几章的时候剧情还能够连续起来,但是后面会突然出现莫名其妙的内容,是前文完全没有提到过的; 想要请问各位佬友们,这种情况是AI上下文限制的硬伤吗,是否有较好的解决方案呢? 项目代码如下: GitH
API Error: 400 {“error”:“1m 上下文已经全量可用,请启用 1m 上下文后重试”,“type”:“error”} 一直提示这个要怎么解决啊大佬们 3 个帖子 - 3 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
使用号池的时候,频繁切换模型,有没有相关的skills来保证上下文不丢失 1 个帖子 - 1 位参与者 阅读完整话题
各位佬们,我有一个疑惑,我在vscode上面通过ssh链接了远程服务器,然后加了一个codex插件,那这里codex的聊天记录是在服务器端还是本地呀?我在本地的codex能找到服务器端的codex的上下文聊天记录吗?有没有知道的佬,求解答。 2 个帖子 - 2 位参与者 阅读完整
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
本人纯新手,991K的上下文确实很强但是费用是阶梯付费的越用越贵,我自己也用这个写了几个小工具,如果只是要求能用就行的只能说凑合,要好用的话难评,而且如果后续要更新写的工具bug是越写越多甚至是写了新的旧的完全崩了得全部重来 5 个帖子 - 5 位参与者 阅读完整话题