1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 98 篇相关文章 · 第 1 / 5 页

Claude Mac桌面端opus 4.6怎么开启1m上下文

想问问各位佬友知不知道Claude Mac桌面端opus 4.6怎么开启1m上下文呀 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-04 12:11:52+08:00

Mac下CC升级了2.1.118 MODEL里4.7的1M上下文怎么没有了?

怎么没有了?没得选了啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-04 08:34:18+08:00

再 送100刀 pro号池 base64解码领取

c2stMzM5NDBkZDI2MzFjZmMzZDg1MGNjMGIyNDdiNTMwYjMyZTVkNTIwMmFiZjI0MzhmZjUzY2EzZTYyZTNkZjk2Mg== 地址: https://chaoye.xyz 需要的佬可以自取哦 1 个帖子 - 1 位参与者

tech linux.do 2026-05-03 20:41:43+08:00

关于any接入CPA

any的Claude-opus-4-7怎么接入CPA啊,我接入一直在报“400 1m 上下文已经全量可用,请启用 1m 上下文后重试”,这个要怎么改啊,gpt-5.3-codex就没有问题。还有any的gpt-5.5是不是不能用MCP啊,一直报错“The encrypted co

tech linux.do 2026-05-02 21:13:42+08:00

Nothing 旗下多款手机在印度涨价,最高涨幅 5000 卢比

IT之家 5 月 2 日消息,据科技媒体 91mobiles 昨天报道,Nothing 现已在印度市场调整多款手机售价, 涨幅最高达 5000 卢比(IT之家注:现汇率约合 360.7 元人民币) 。 据报道,本次涨价主要受 DRAM 芯片涨价潮影响,目前新价格已在 Flipka

tech www.ithome.com 2026-05-02 14:01:27+08:00

有人用过your api的claude max吗?

标价max渠道的opus4.6是8r输入,40r输出/1m,但是我让它回个ok就花了一块多,读了一个文档和xlsx就花了10r,是不是额度异常了,这个用量也太夸张了吧,输入直接用了10wtoken 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-02 13:18:08+08:00

联合创新推出“GA32V1M MAX”32 英寸显示器:4K 160Hz / FHD 320Hz 双模 + 双扬 + 光线传感器,3998 元

IT之家 5 月 1 日消息,联合创新现已在京东上架一款型号为“GA32V1M MAX”的 32 英寸显示器,该机主打 4K 160Hz / FHD320Hz Mini LED 双模,同时提供了光线传感器, 定价为 3998 元 ,部分地区国补后定价地址 3779.11 元。 该

tech www.ithome.com 2026-05-01 18:39:32+08:00

有佬友知道星辰家的模型怎么支持1m上下文吗

有佬友知道星辰家的模型怎么支持1m上下文吗,官网上显示支持1M上下文,但是ccswitch直接按照模型名导入之后是200k 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-01 11:46:18+08:00

Owl alpha很可能是美团的Longcat2.0

官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age

tech linux.do 2026-05-01 09:26:17+08:00

cc搭配deepseek,是不是上下文不是1M?

cc搭配deepseek,是不是上下文不是1M?感觉上下文很快就用完了,然后就丢弃前面的开始出现幻觉,越改越不对了。 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-01 09:24:08+08:00

Openrouter上新新匿名模型openrouter/owl-alpha(longcatV2),1m上下文,看介绍为龙虾而生

openrouter/owl-alpha 应该是longcat V2 17tps,就这速度还cc和龙虾啊 (为啥秘密代码是:ZOO-OWL-2024,难不成幻觉了,还是美团偷偷杀疯了) 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-30 23:41:22+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 17:07:57+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:01:10+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 15:54:30+08:00

claude code API Error: 400 {"error":"1m 上下文已经全量可用,请启用 1m 上下文后重试","type":"error"

image|690x189 大佬们 中转设置了 api url 为什么这样呢 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-30 14:44:33+08:00

any能用4.7了

今天any更新gpt5.5后,发现导入ccs4.7可以用了,之前都不能用,还是要加[1m],反而5.5用不了,佬们也看看 12 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-30 11:14:30+08:00

deepseekv4pro搞逆向如呼吸般顺畅

不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-30 05:25:33+08:00