gh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn

gh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第10页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 295 篇相关文章 · 第 10 / 15 页

配合提示词疑似能在Deepseek官方网页版实现接近Max的思考深度?

忘了从哪看到,Deepseek网页版的深度思考的深度是High? 但是 官方的技术报告 里提到,Max思考深度使用了特定提示词。 (翻译) (翻译) 提示词: Reasoning Effort: Absolute maximum with no shortcuts permitt

tech linux.do 2026-04-25 13:47:15+08:00

gpt5.5消耗速度感人

codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:10:58+08:00

请问大家用 codex 的 5.5 选 medium 还是 high 呀

如题,好像默认是 medium 了,high 消耗 token 会很快吗 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:42:48+08:00

xhigh+fast 5.5上瘾了

哈哈 之前一直两个plus用着 现在上了一个pro 用5.5 fast是真爽啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 22:35:19+08:00

[Codex] gpt codex 5.5 写代码 medium 比 high 会差多少

tech v2ex.com 2026-04-24 22:03:31+08:00

Claude Max 的 Opus 响应速度会比 Claude Pro 的 Opus 快吗?

如题,这两天在 cc 里面用 opus,claude pro 订阅,感觉 opus 真的好慢呀,xhigh 思考强度,很简单的问题都要想 1 分多钟,感觉不是很正常,是不是 pro 用户会被限速呀,max 用户有这个问题吗?正在考虑开一个 max。 8 个帖子 - 4 位参与者

tech linux.do 2026-04-24 20:59:02+08:00

codex 的输入 token 消耗巨大,跟 claude 拉开了几条街,怪不得额度消耗这么快

这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:28:43+08:00

知名代理软件 Quantumult X再次开放TF

Quantumult X TestFlight 测试版已开放 点击链接: 加入 Beta 版“Quantumult X” - TestFlight - Apple 佬友抓紧时间上车. 请 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:54:59+08:00

个人不严谨盲测:ChatGPT 5.4 Xhigh VS DeepSeek V4 Pro

叠甲:这是本人第一次尝试横向评估模型能力,测试方式可能有明显的不严谨,仅作为分享,大家看个乐子即可 测试结果 github.com GitHub - YKDZ/v4-vs-5.4: AI 代码能力对比:DeepSeek V4 Pro vs ChatGPT 5.4 xhigh ——

tech linux.do 2026-04-24 15:18:47+08:00

有无大佬推荐嵌入式vscode函数调用图插件

使用vscode进行嵌入式C语言开发,有无大佬推荐一下类似于source insight函数调用图的插件,谢谢。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:49:54+08:00

捞们,这个Spotlight-V100 是什么呀!mac 的聚焦

清理了 过几天又会回来,我设置了不要聚焦的,还是会在,我真麻了!!! 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 14:17:56+08:00

AI读《DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence》

使用deepseek-v4 pro的总结,配合gpt-image-2的出图 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:28:33+08:00

原来L站都是高收入家庭、

Epoch AI Claude skews high-income; Meta AI skews low-income Household income of weekly AI users ranges from 80% earning $100K+ for Claude to

tech linux.do 2026-04-24 13:15:00+08:00

GPT-5.4跑分在K2.6和DeepSeek-v4技术报告中不同

在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图

tech linux.do 2026-04-24 12:09:04+08:00

rightcode对接newapi缓存几乎等于没有

有没有佬遇到了相同的问题,我自己的newapi对接了四个付费站点用于失败随时切换,其他三个站点都没问题,就right code,缓存根本就属于没有,有没有佬知道啥问题啊。。。感觉不是newapi问题,是rc那边的问题,因为我newapi还对接了自己的cpa免费号池,sub2api

tech linux.do 2026-04-24 10:14:30+08:00

可以听听佬们的gpt5.5使用感受吗

今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:11:06+08:00

gpt 5.5 xhigh 的上下文怎么感觉消耗的好快

gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:02:46+08:00

5.5 xhigh fast 用量是有点夸张的噢

pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:14:06+08:00

苹果联合立讯精密、比亚迪等反对 GHGP 强制要求企业按小时匹配电力消耗与清洁能源

IT之家 4 月 24 日消息,科技媒体 Appleinsider 今天(4 月 24 日)发布博文,报道称苹果公司联合立讯精密、比亚迪、京东方等供应链合作伙伴,以及通用汽车、eBay 等企业, 签署联合声明反对温室气体核算体系(GHGP)拟议的 Scope 2 指引修订。 IT

tech www.ithome.com 2026-04-24 08:38:37+08:00

CPA 更新 v6.9.36 已支持 gpt-5.5 xhigh Juice 值 768

4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 07:52:00+08:00