de - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第98页 - 钛刻科技 | TCTI.cn

de - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第98页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 9071 篇相关文章 · 第 98 / 454 页

[推广] [源头工厂] 顶级万号 ProMAX,$300 刀 Codex/GPT5 免费送,企业级稳定!五一专场

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5

tech v2ex.com 2026-05-01 15:00:08+08:00

DeepSeek V4 Pro 和 各家 Coding Plan 谁更划算

佬友们好,本人是通信工程大一学生,目前用的ChatGPT Plus + 京东云Coding Plan ,感觉京东云的Coding Plan 性价比不是很高,也没有GLM 5.1或者 Deepseek V 4,在考虑要不要把京东云的Coding Plan 换成 Deepseek 官

tech linux.do 2026-05-01 14:50:49+08:00

Claude惨遭封禁,有偿求CC低价中转站

求佬们私信,推荐几个便宜好用的CC中转站吧,百元 感谢 cc-max可以做到1.5x以下的(再吸不到纯的就要被老板开除了 ) kiro可以做到0.4以下的(龙虾快饿死了 ) 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:47:31+08:00

目标内存速率 12800 MT/s,固态技术协会 JEDEC 宣布 DDR5 MRDIMM 关键进展

IT之家 5 月 1 日消息,固态技术协会(JEDEC)昨日(4 月 30 日)发布公告,其逻辑与 DRAM 模块委员会针对 AI 与云计算日益增长的高带宽需求,官宣多项 DDR5 MRDIMM 标准进展。 IT之家注:MRDIMM 直译为多路复用秩双列直插式内存模块,是一种创新

tech www.ithome.com 2026-05-01 14:41:03+08:00

某外国哥们为deepseek专门写了个TUI

这哥们在x上用中文发的帖子 13 个帖子 - 11 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:38:28+08:00

最牛的终端开源了 warp,用过的来说说

不需要输入 claude 再开始,直接 bash 输入,我要查询磁盘空间,自动帮你 du 执行,不用再记命令了,帮我解压文件,查找 cpu 高占用进程,发挥你的想象。 似乎只是使用路径变短,接入 bash ,不知道跟腾讯和阿里的 bash ai 什么区别。 用过的大佬说说场景

tech www.v2ex.com 2026-05-01 14:28:50+08:00

rawchat的codex套餐怎么样

想问问有使用过rawchat套餐的佬友出来说说,rawchat套餐的使用体验怎么样呀,我看有人说计费有点问题是真的吗,大概差多少呢,想入手有点犹豫 遂发问 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:15:56+08:00

ollama不再允许白嫖gemini-3-flash

报错 [status 403] this model requires a subscription, upgrade for access: 登录 最好的gemini-3-flash白嫖渠道已死 9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:14:05+08:00

xiaomi的这个模型太溜了,答非所问

Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem

tech linux.do 2026-05-01 14:09:20+08:00

DeepSeek V4距全球最强AI有多远 美国研究员公布结果:落后7个月

DeepSeek V4发布已经一周时间了,期间三次降价或者优惠,还发了视觉大模型,本代大模型布局基本完成。相比去年的DeepSeek R1,这次的DeepSeek V4发布之后争议更多,主要是没有之前R1那种技术上领先的感觉了,各种AI榜单上实际上也落后于美国公司开发的AI大模型

tech plink.anyfeeder.com 2026-05-01 14:05:31+08:00

DeepSeek连夜删掉的新论文到底说了什么

昨晚 DeepSeek 多模态研究员陈小康在 X 上发了一条推,并公布了DeepSeek 关于多模态技术的新论文《Thinking with Visual Primitives》,表示“Excited to release”。 今天一早,推文删了,GitHub 上的论文也撤了。

tech plink.anyfeeder.com 2026-05-01 14:05:19+08:00

OpenAI疯狂升级Codex 接管Mac人类全程0操作围观

OpenAI的智能体Codex,这次直接硬刚Claude Cowork。Codex是OpenAI的旗舰代码生成模型,支持GitHub Copilot等产品,已成为全球开发者不可或缺的AI助手。这次的更新,非常重磅。YouTube创作者Mike Russell发布了一条实测视频,效

tech plink.anyfeeder.com 2026-05-01 14:05:09+08:00

同一提示,同一模型, claude 桌面版 比 claude code 笨吗,结果相差好多, 还是需要怎么设置?

同一个 ui 图, 同样的提示词,同样的第三方 4.7 模型, 使用 claude code 终端版,一次完美生成 换用 claude 桌面版, 跑了两次, 速度慢,效果也不好,它总是把 ui 图切成 N 个部分,生成结也有偏差。 claude 桌面版是不好用吗, 还是需要怎么调

tech www.v2ex.com 2026-05-01 14:01:35+08:00

同一提示,同一模型, claude 桌面版 比 claude code 笨吗,结果相差好多, 还是需要怎么设置?

同一个 ui 图, 同样的提示词,同样的第三方 4.7 模型, 使用 claude code 终端版,一次完美生成 换用 claude 桌面版, 跑了两次, 速度慢,效果也不好,它总是把 ui 图切成 N 个部分,生成结也有偏差。 claude 桌面版是不好用吗, 还是需要怎么调

tech www.v2ex.com 2026-05-01 14:01:35+08:00

[推广] [源头工厂] 顶级万号 ProMAX,$300 刀 Codex/GPT5 免费送,企业级稳定!五一专场

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5

tech v2ex.com 2026-05-01 13:50:33+08:00

基于DS4proTokenizer和GLM5.1Tokenizer的单次性能测试

3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m

tech linux.do 2026-05-01 13:31:33+08:00

Github Copilot学生优惠土埋眉毛了

五月的第一天,在使用之前都不会看一眼的GPT-5.2-Codex进行了仅仅3个request后,Copilot提示我: 而此时, 所谓Premium requests的额度已经名存实亡,各种weekly limit, daily limit,甚至我不知道是否存在,就算现在不存在之

tech linux.do 2026-05-01 13:19:45+08:00

[推广] [源头工厂] 顶级万号 ProMAX,$300 刀 Codex/GPT5 免费送,企业级稳定!五一专场

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5

tech v2ex.com 2026-05-01 13:18:42+08:00

大佬们,deepseek v4有sonnet 4.6的水平吗?想看工程实测对比,不是跑分测试那种

好奇对比效果,这俩现在的定位是差不多的吧,都是opus4.7和gpt5.5外的次优选择 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-05-01 13:16:47+08:00

请问codex cc怎么用最好呢? 缓存命中怎样会最高?

一直在写自己的比赛的一个视觉识别的小项目,每次codex或者cc上下文快要用完的时候我就让他写一个或者更新handoff文件,然后新开一个会话读取handoff文件继续干。 但是我问了下grok,它说这样缓存命中会很低,那请问具体应该怎么做呢?一个项目就在一个会话里? 6 个帖子

tech linux.do 2026-05-01 13:15:18+08:00