1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 99 篇相关文章 · 第 4 / 5 页

我去DeepSeekv4 真的发布了

1m 上下文 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:24:38+08:00

[推广] 自用 OpenAI API 中转 🤡

aHR0cHM6Ly81ODUwMTZkMy51M3UuZGV2Lw== 基本情况: 基于 sub2api 搭建 Pro + Plus 号池 主要提供 OpenAI ,不含 Anthropic 东京节点 适合已经用过中转服务、知道怎么接入的朋友 不提供详细文档和教程 现在 注册会

tech v2ex.com 2026-04-24 10:45:51+08:00

gpt 5.5 xhigh 的上下文怎么感觉消耗的好快

gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:02:46+08:00

codex gpt 5.5不支持高上下文,貌似只有258k

然而我已经开了350k(刚刚还试过了512k / 1m) model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto

tech linux.do 2026-04-24 10:02:14+08:00

模型切换到了5.5 之后没有1m上下文 ,windows

如图,有佬友知道这是为什么嘛? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:16:10+08:00

自用节点200G一个月还有俩月都是官方送的

有点小卡,之前都不红,这两天不知道为啥红了 节点地址:sub://aHR0cHM6Ly91cGRhdGUuZ2xhZG9zLWNvbmZpZy5jb20vc3Vic2NyaWJlLzY1MTM0NC8zYmI3NmYwLzE1NjMzNi9zZXJ2ZXJz#servers 4

tech linux.do 2026-04-24 09:12:51+08:00

GPT 5.5 MRCR v2成绩如何?

在1M 8针 场景 能赢Opus 4.6吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:02:59+08:00

「OneToken.sh」本站正式支持GPT-5.5,人民币5元100万Token,抽10位送500万Token

官网: OneToken.sh 1M=100万Token 输入价格: 5元/M Token 输出价格: 15元/M Token 缓存输入: 0.1倍率 缓存写入: 1.25倍率 第一次开中转平台,也没用过其他中转站,缺失了一些调研,定价方面可能让部分佬友觉得过高(乃至离谱)让不舒

tech linux.do 2026-04-24 05:14:11+08:00

关于GPT5.5在Codex app中的上下文问题?

GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。 我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显

tech linux.do 2026-04-24 02:48:59+08:00

疑似codex中5.5上线了,原来设置得gpt5.4,1m上下文被路由了.

登录的是codex pro 20x的账号 在使用codex cli时刚刚给我跳出上下文长度超过了的提示, 怀疑是路由到了新的gpt 5.5,上下文长度只有256k. 没有gpt-5.4的 1M上下文 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 00:18:47+08:00

提升 Claude Code 自定义模型上下文识别容量 200K -> 1M(迎接 DeepSeek V4)

Claude Code 使用原生 `--settings` 选项配置多个自定义模型供应商 开发调优 很久没有写博客类文本,已经不知道怎么开场了,直接开始吧 首先需要把 Claude Code 更新到 1.0.61 及以上版本,Anthropic 在这个版本给 Claude Cod

tech linux.do 2026-04-23 22:46:37+08:00

cc-switch 中配置 any-router, 一直提示开启 1m 上下文后重试,选择了 1m 的模型也同样提示

cc-switch 中配置 any-router, 一直提示开启 1m 上下文后重试。我在 /model 中已经选择了 opus 1m 了,还是和刚刚一样提示 12 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-23 22:16:57+08:00

Claude 桌面版 设置模型别名映射方法 + 开启1m上下文方法

进入三方平台设置后,选择右上角配置,选择在Finder里打开配置。 点击json文件,添加如下模型别名,重启即可正常使用。 1m也可以正常使用。 { "disableDeploymentModeChooser": true, "inferencePr

tech linux.do 2026-04-23 22:13:20+08:00

A\给 Pro 上1M上下文了?

(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-23 21:17:40+08:00

Deepseek 的API 又悄悄更新lite V4 1M上下文

刚刚试了一下,发现Deepseek V4 的API 又更新了 14 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-23 16:46:09+08:00

DeepSeek API再次部署为v4 lite

DeepSeek API模型发生变化 前沿快讯 [841eaecdcbf43b0a] API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 昨天API异常后回滚了 今天API已重新部署为v4 lite 5 个帖子 - 5 位参与者

tech linux.do 2026-04-23 16:35:42+08:00

DS官网的API好像又变回v4l了

刚截的图,回覆里有1M和v4l最喜欢的三体 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-23 16:32:39+08:00

deepseek api貌似又变成1m的了

3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-23 16:26:20+08:00

claude 1M模型问题

一直用的1m的sonet,然后昨晚忽然提示不可用就退出重登就选不到了 有人知道为啥吗,是max的5x套餐 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-23 09:36:40+08:00

关于新DeepSeek api模型的上下文测试

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。 但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。 超时报错:{“error”:{“message”:“We were unable to s

tech linux.do 2026-04-22 17:09:20+08:00