M5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

M5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 294 篇相关文章 · 第 1 / 15 页

再 送100刀 pro号池 base64解码领取

c2stMzM5NDBkZDI2MzFjZmMzZDg1MGNjMGIyNDdiNTMwYjMyZTVkNTIwMmFiZjI0MzhmZjUzY2EzZTYyZTNkZjk2Mg== 地址: https://chaoye.xyz 需要的佬可以自取哦 1 个帖子 - 1 位参与者

tech linux.do 2026-05-03 20:41:43+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 19:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 18:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:24:52+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:10:34+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:32:55+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:17:40+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:47:07+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

极夜预热 5L 级 AM5 迷你主机 W1:DC 供电,支持 188mm 全高显卡

IT之家 5 月 2 日消息,极夜 (TOPFEEL) 今日介绍了其基于 AMD AM5 桌面平台的 5L 级迷你主机新品 W1。这一型号采用 DC 供电, 支持双槽全高 (FH) 188mm 长的单风扇 PCIe AIC ,安装半高 AIC 时额外提供 2 个 2.5&quot

tech www.ithome.com 2026-05-02 19:26:08+08:00

litellm 支持responses api请求转换至后端 /chat/completions

之前试过CLIProxyAPI 接入某云平台glm5给codex用。今天没事看了看litellm,发现v1.83.14支持了,就测试了下。除了remote compact有问题,其他的使用还算正常。 # litellm_config.yaml model_list: - mode

tech linux.do 2026-05-02 12:53:48+08:00

彻夜未眠三个小时,为周杰伦淘金小镇做了一个专属播放页 最终还是gpt稳稳接住一切…

从 glm5.1这波太细节了! 继续讨论: 本话题始于5:02 TLDR 当然结尾有网站以及淘金小镇标准音质直链资源~ 一点一点说,中途到底经历了什么 上面话题分享了,最开始2点的时候兴致勃勃的打开了z.ai 洋洋洒洒的粘贴了豆包专家写的万字技术方案 然后水话题,摸鱼之类的 当终

tech linux.do 2026-05-02 06:11:54+08:00

glm5.1这波太细节了!

我反复看了好几分钟才看明白时间戳这样标是因为需要显示翻译… 于是在要求里要求他合理处理该如何去展示翻译歌词的问题 结果他在思考过程中发现了细节: 理想情况下 中文句应该没有英文翻译的 那这种夹杂英文的中文句怎么办? 这是我没有发现,更不可能再想到的问题 glm5.1很细节了~ 3

tech linux.do 2026-05-02 02:13:55+08:00

求助,火山plan的glm5.1在使用中,出现 context canceled 的情况,反复出现

用的是 claude cli ,中转是 axonhub 有跟我一样情况的佬友么? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 00:34:56+08:00

【预告】 Hello GLM GLM的2API项目,支持工具调用+glm5+理论无限额度+无门槛

正在制作全新一代GLM的二API,Hello GLM 目前已经完成工具调用+glm5+理论无限额度+无门槛。准备明天发,不知道大家需不需要。 我很需要(支持) 我不需要(中立) 没有意义(反对) 点击以查看投票。 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-02 00:00:43+08:00

关于国产CodingPlan选择替代和避雷。

L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是

tech linux.do 2026-05-01 17:04:00+08:00

基于DS4proTokenizer和GLM5.1Tokenizer的单次性能测试

3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m

tech linux.do 2026-05-01 13:31:33+08:00

[问与答] 哪里有第三方部署的 GLM5.1 卖编程套餐吗?

官方的微信群里天天说卡顿报错,买也买不到,想试试看效果怎么样

tech v2ex.com 2026-05-01 11:11:48+08:00