LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 895 篇相关文章 · 第 9 / 45 页

送5张免费体验GLM 7天体验卡【已领完】

新人报道,送点体验卡吧 bigmodel.cn 智谱AI开放平台 智谱大模型开放平台-新一代国产自主通用AI大模型开放平台,是国内大模型排名前列的大模型网站,研发了多款LLM模型,多模态视觉模型产品,致力于将AI产品技术与行业场景双轮驱动的中国先进的认知智能技术和千行百业应用相结

tech linux.do 2026-04-29 17:26:17+08:00

谁才是8卡H200服务器的终极归宿,GLM-5.1-FP8 vs Kimi-2.6 vs ... ?

目前有一台闲置 H200(显存141Gb)*8 的服务器,想部署本地模型体验一波,目前考虑的有2个,GLM-5.1-FP8和Kimi-2.6,有佬深度使用过哪个更强一些吗,或者还有其他模型推荐吗 模型 架构 专家数 参数量和激活 模型权重 HuggingFace 链接 Kimi

tech linux.do 2026-04-29 17:18:26+08:00

glm 搭配 opencode 好用还是 claude code 好用!

暂时不考虑各种插件和 skill,只考虑开箱即用 glm 5.1 搭配这两个 agent,谁的效果更好? 有没有熟悉的佬友出来说说 9 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:47:21+08:00

国产ai编码哪个好用一些

GPT无了, 想转kimi或者GLM用一下,佬友们有没有用过的推荐一下 ? 11 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:43:13+08:00

测试下MIMO的TTS,好像效果还挺不错的

感谢雷子哥送的token plan,llm放在hermes上还没怎么深度测试,刚好趁着限免简单测试了一下TTS系列模型,效果还是很理想的,尤其是voice clone感觉生成速度很快,效果也不错 放出前端页面: MIMO-tts-test ,大家也可以用用看 github地址:

tech linux.do 2026-04-29 16:15:59+08:00

claude code接入deepseek4以后一直在假思考,不消耗token也不输出结果。

如图deepseek4操作得差不多了以后,会显示almost done thinking,然后就一直卡在那边,时间会一直增加,但是token使用量却不会增加(claude code和deepseek官方网页都显示token数未增加) 之前用v4好好的,但是今天就有这个问题。 3

tech linux.do 2026-04-29 16:03:31+08:00

买的 codex 中转陨落了,只能蹬 glm

之前买的站内某富可敌国 codex 月卡,用着很舒服,结果也逃不过最近的封号潮,陨落了 最近只能去蹬我的 glm 了,还好我是没周限的 max 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 15:54:30+08:00

glm怎么变🐶了,居然限制这么死,还没有国产第一呢

昨天看有佬友发帖吐槽,我作为去年入手的老用户,正常的续费起用。因为我还有copilt 和中转,所以glm是在我觉得问题不大的时候用的,没想到我挂在那里,下午就限制了,实际我没有用到5小时,而且本身glm也比较慢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 15:44:56+08:00

最近D老师把智普GLM干老实了,可用性都变高了

我已经三天没见过429了。 输出token的速度也变快了。 高峰期额度更耐用了 官网套餐降价了 我只能说deepseek牛逼 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 15:13:19+08:00

本地部署模型,想开发一个自用的llm对话界面,有哪些现成的代码仓可以参考使用吗

其实就是本地化LLM模型+自定义的web,需要一个llmweb对话的前端,因为有自定义的需求,找一个满足base功能的llm对话界面做二次开发。目前用的多且简单的有哪些吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 12:36:33+08:00

(已无 秒无)送3个GLM Coding Plan 7天AI Coding体验卡

我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 用上的佬点点爱心 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:43:26+08:00

买机娘的钱财是不是……

搞点rust推理后端…cpu要飞起来了…llm也是一窍不通 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:26:26+08:00

大家coding模型更愿意选择glm5.1还是deepseek v4 pro?(不考虑成本,仅考虑模型能力)

如题,最近没有gpt用了,没招了,想换到公益站的glm或ds 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:19:40+08:00

vibe coding 过程中配置快速切换和统计使用token问题

我在vibe coding 过程中使用到了gpt,glm等各种模型,每次切换模型时都要去codex配置文件中去更改对应的模型地址和key非常麻烦,更改完之后在 vscode codex插件中上次使用的对话上下文也无法正常使用,必须重新开一个才能解决,使用起来很不爽,然后也无法统计

tech linux.do 2026-04-29 10:27:16+08:00

DeepSeek 的恩情还不完🙏

猛蹬一天只花了一块多(我是flash和pro混用),编程能力个人感觉接近GLM5.1,最主要的优点就是特别省token,同样的任务消耗的token数量几乎是其他模型的80%左右,再加上1M的长上下文,真感觉特别适合CC,CX这些智能体。 然后今天看了一眼API价格, 官方直接把

tech linux.do 2026-04-29 10:20:56+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 04:57:02+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 03:57:02+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 02:57:02+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:57:02+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:52:54+08:00