1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 99 篇相关文章 · 第 2 / 5 页

deepseekv4pro搞逆向如呼吸般顺畅

不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-30 05:25:33+08:00

如何把Claude Code订阅换opus4.6[1m]

如题,如何把claude code订阅的模型换成opus4.6[1m] 4.7现在天天不说人话,太难受了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 22:37:01+08:00

gpt 5.5 只能258k上下文, 没法干活阿, 还是换成5.4了

原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:55:52+08:00

用codex的佬友们 会手动窗口改1m吗

默认我记得是272k 需要指明的是窗口肯定不是越大越好 gpt5.5在不同窗口下的准确性的下降曲线可以看看 在考虑弄成400k 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 18:55:05+08:00

cc-switch 全局代理开启的话 如何设置1M上下文

如题 目前用的cc-switch 管理模型,但是通过全局的代理话 不知道怎么设置成1M上下文 5 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 13:18:42+08:00

有没有佬知道调用第三方 deepseek-v4-pro 的时候怎么在 CC 中开启 1M 上下文长度

我现在在使用 ollama 的 deepseek-v4-pro, 我尝试在 CCS 中的模型名称后面加上 [1m], 但是显示调用失败, 有佬知道怎么开启吗? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:30:57+08:00

请教佬友们一个关于claude code 桌面版的问题

今天申请到了小米一个月的pro体验 在claude中添加了1M上下文的设置 然后重新启动了claude 然后重新/context 还是200K 这是模型本身不支持1M上下文吗 还是我设置的有问题 另外我看官方的更新信息是支持1M上下文的 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 17:28:24+08:00

Claude Code 现在强制要1M上下文吗?

Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:49:57+08:00

GPT-5.5在claude code自定义上下文长度的方法

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然

tech linux.do 2026-04-28 08:52:04+08:00

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号)

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 20:20:14+08:00

传Kimi K3三季度发布,参数超2.5万亿,1M上下文!

「日常焦虑帝」爆料称,Kimi K3 计划在 Q3 发布,参数规模超过 2.5 万亿;内部实验已测试远超 100 万 token 的上下文长度,但最终是否向用户开放 1M 上下文仍不确定。爆料还称,当前限制 Kimi 推出 1M 上下文的主要瓶颈不是技术,而是算力资源。 这条传闻

tech linux.do 2026-04-27 17:39:54+08:00

cc 接入 gpt-5.5 怎样适配短上下文

因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"

tech linux.do 2026-04-27 15:05:57+08:00

V4开启1m和不开启消耗的token数量变化如何?

写代码时应该开启还是不开启,1m的提升大吗?其他模型500左右就开始失忆和胡言乱语的情况会出现吗 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 11:50:02+08:00

用DeepSeek V4做编程的话还可以再等等

DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co

tech linux.do 2026-04-27 10:26:07+08:00

Claude code接入deepseek v4p默认是200k上下文

需要在模型后面添加[1m] 以下是对比图 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 09:40:28+08:00

刷完B站才发现我没把DS V4配置对

原来还要配置模型名的后缀[1m]和max的CLAUDE_CODE_EFFORT_LEVEL 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 09:25:15+08:00

V4!现在deepseek一次输出过程也会反驳自己的上文了吗?

这就是moe吗?我问他现在v4支持1m,我上次有个任务是把1000行的app.tsx拆成几个文件,主文件只保留api和路由,让subagent干活,结果第一个agent干了一半10分钟爆了,第二个agent接了第一个agent的活,2分钟就爆了,我就问deepseek现在v4支持

tech linux.do 2026-04-26 03:23:16+08:00

腾讯云的Hub送了1M的DeepSeek-V4-Pro和Flash的Token, 7.30到期

地址: cloud.tencent.com 登录 - 腾讯云 腾讯云为数百万的企业和开发者提供安全、稳定的云服务器、云主机、CDN、对象存储、域名注册、云存储、云数据库等云服务,帮助用户解决游戏、视频、移动、微信、互联网+等行业的架构难题,是全球领先的云计算服务商。 cloud.

tech linux.do 2026-04-25 16:07:08+08:00

随着GPT5.5的发布,1M上下文的普惠,AI一日千里,如今AI在嵌入式的领域发展如何了

曾经在1月份发过类似的贴着,当时佬们的回答貌似还在吐槽上下文,智能指针。 如今opus4.6[1M] opus4.7 gpt5.4 gpt5.5 以及普惠1M的deepseekV4pro,AI发展一日千里。 嵌入式的佬们现在对于AI的应用感受如何?尤其是做应用层的嵌入式呢? 还有

tech linux.do 2026-04-25 15:59:42+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 15:03:41+08:00