[OpenAI] 天下苦 Claude 久矣, GPT 就出招了, 5.5 目测下限是 opus 4.6
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 249 篇相关文章 · 第 10 / 13 页
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
如图,有佬友知道这是为什么嘛? 4 个帖子 - 4 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
之前有说过,要保持良好的睡眠习惯,如果不靠睡觉“清空上下文”,脑子会卡住,这点得到了很多佬友的赞同。 反过来说,同理,一个人感觉脑子最清醒的时候,往往是刚刚醒来的时候(完成开机过程),特别是开始思考第一个问题的时候,犹如神助。而到了晚上,经历了一天的疲惫,你几乎无法思考,严重的甚
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
图源于gpt -5.5联网搜索资料绘制,我宣布gpt-5.5是真正补齐了gpt-5.4的两大短板:黑话和伪一百万上下文,已经成为唯一真神大模型,不过目前codex无法订阅打开,等openai更新 14 个帖子 - 6 位参与者 阅读完整话题
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。 我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显
登录的是codex pro 20x的账号 在使用codex cli时刚刚给我跳出上下文长度超过了的提示, 怀疑是路由到了新的gpt 5.5,上下文长度只有256k. 没有gpt-5.4的 1M上下文 2 个帖子 - 2 位参与者 阅读完整话题
腾讯 Hy3 预览版 256K 上下文 推理 纯文本 295B (A21B) openrouter也进行免费使用,但是未充值10刀的每天限制请求100次 openrouter.ai Hy3 preview (free) - API Pricing & Providers
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
Claude Code 使用原生 `--settings` 选项配置多个自定义模型供应商 开发调优 很久没有写博客类文本,已经不知道怎么开场了,直接开始吧 首先需要把 Claude Code 更新到 1.0.61 及以上版本,Anthropic 在这个版本给 Claude Cod
现在我在 Termius 里边远程 SSH 我的远程主机使用 Claude Code ,发现他的页面内容在超出屏幕一定距离的地方开始会有乱码,重复等显示异常,但通过缩放触发局部刷新后,可以让当前屏幕内的内容显示正常,但是当前屏幕以上的内容依旧无法观看。 此外,远程主机是Ubunt
cc-switch 中配置 any-router, 一直提示开启 1m 上下文后重试。我在 /model 中已经选择了 opus 1m 了,还是和刚刚一样提示 12 个帖子 - 7 位参与者 阅读完整话题
进入三方平台设置后,选择右上角配置,选择在Finder里打开配置。 点击json文件,添加如下模型别名,重启即可正常使用。 1m也可以正常使用。 { "disableDeploymentModeChooser": true, "inferencePr
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
显示Reconnecting… 1/5 stream disconnected before completion: Incomplete response returned, reason: max_output_tokens Codex ran out of room in
刚刚试了一下,发现Deepseek V4 的API 又更新了 14 个帖子 - 10 位参与者 阅读完整话题
DeepSeek API模型发生变化 前沿快讯 [841eaecdcbf43b0a] API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 昨天API异常后回滚了 今天API已重新部署为v4 lite 5 个帖子 - 5 位参与者
Codex在模型上下文窗口中已无空间。请启动新线程或清除先前历史记录后重试。 这种需要怎么处理 1 个帖子 - 1 位参与者 阅读完整话题