Owl alpha很可能是美团的Longcat2.0
官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 248 篇相关文章 · 第 2 / 13 页
官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age
cc搭配deepseek,是不是上下文不是1M?感觉上下文很快就用完了,然后就丢弃前面的开始出现幻觉,越改越不对了。 5 个帖子 - 4 位参与者 阅读完整话题
我之前投简历经常遇到这种情况:投完没下文,一问才知道简历里漏写了关键技术栈,或者项目描述写得像流水账。后来干脆把自己踩过的坑整理成了一套检查规则,做了个小工具给自己用,就是「棱镜简历」。 现在开放出来给有需要的人,功能比较实在: 简历格式解析 自动识别基本信息、教育经历、工作经验
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
openrouter/owl-alpha 应该是longcat V2 17tps,就这速度还cc和龙虾啊 (为啥秘密代码是:ZOO-OWL-2024,难不成幻觉了,还是美团偷偷杀疯了) 3 个帖子 - 3 位参与者 阅读完整话题
因为老窗口上下文长,我新建了个窗口给他丢了一个md文件解读后继续写代码,突然发现才给了一个指令就占用了100多k。这是我md文件太长的问题吗? 1 个帖子 - 1 位参与者 阅读完整话题
image|690x189 大佬们 中转设置了 api url 为什么这样呢 8 个帖子 - 8 位参与者 阅读完整话题
上下文长一点就报错 API Error: 524 claude code中使用 需要/compact压缩一下上下文才能解决问题 还有什么更优雅的方式解决问题吗? 报错详情 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题
Error running remote compact task: stream disconnected before completion: missing field output at line 11 column 157 我之前报了连接超时,解决方案是显示为cpa添加
如题,之前用opencode+OMO+GPT5.4,工作流很习惯了。现在切到GPT5.5,虽然感觉能力确实明显有提升,但是经常出现几个task/tools的结果一下子塞爆上下文连compact都做不到的情况。 codex上因为有会话内自动压缩,基本不需要手动压缩,更加适配GPT
上下文太长找不到了 我今晚在跑注册机,先用的破限提示词,达到上下文压缩后道德感回来了,然后我一句 ctf 环境 + 捧杀就可以了 ,什么万能完美最强的 gpt 模型一顿夸夸 3 个帖子 - 3 位参与者 阅读完整话题
不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题
不知道是不是因为我的窗口上下文太长的问题,比如在让他在修复bug,修一半他突然幻觉去回复上面已经回答过的问题。把我气的半死。有没有佬遇到跟我一样的情况 9 个帖子 - 4 位参与者 阅读完整话题
原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题
在使用cherry studio调用DeepSeek官方API时发现的,模型会频繁出现忽略输入内容的情况。 具体表现为,当单次输入的prompt内容较长时,比如超过10000tokens,大模型的输出结果就明显看出来,它忽略了前5000个输入token,实际使用过程中甚至出现过忽
听说gpt5.5不是在codex里面上下文是272k?在cpa里面反代出来上下文窗口能到多少,有知道的佬友么?400k?1M? 4 个帖子 - 4 位参与者 阅读完整话题
ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾
IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。
如题 目前用的cc-switch 管理模型,但是通过全局的代理话 不知道怎么设置成1M上下文 5 个帖子 - 2 位参与者 阅读完整话题