128k - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

128k - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 4 篇相关文章

Owl alpha很可能是美团的Longcat2.0

官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age

tech linux.do 2026-05-01 09:26:17+08:00

求助CPA+hermes上下文窗口只有128k,动不动就满了,怎么调整

RT,在windows上部署的CPA,里面放了两个gpt账号,连上wsl中的ubuntu后对话窗口只有128k,体验太差了,动不动就满了,有没有什么办法调一下 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:16:12+08:00

2080ti 11g本地部署qwen 3.6 35b a3b,128k 上下文,67tps

我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上

tech linux.do 2026-04-26 16:52:57+08:00

deepseekapi又回滚了.被戏耍🥲

现在又变回128k长下文了,很难绷啊感觉在耍我们 9 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-22 20:34:49+08:00