腾讯云太不要脸了, token plan 上 glm5.1 和 minimax-m2.7,但是 coding plan 不上
真的脸都不要了啊,都是用户还能这样歧视的啊
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第31页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 925 篇相关文章 · 第 31 / 47 页
真的脸都不要了啊,都是用户还能这样歧视的啊
Qwen3.6-27B出了。。。。 GitHub GitHub - QwenLM/Qwen3.6: Qwen3.6 is the large language model series developed... Qwen3.6 is the large language mode
有佬友有同样的感觉吗?为啥在同一套全局提示词+用户提示词的情况下,用codex上的gpt5.4写出来的东西内容更加空洞、不连贯且ai味重呢(不是,而是 … 11 个帖子 - 5 位参与者 阅读完整话题
上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了
上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了
上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了
国内大模型,写代码有推荐的吗,glm5用着用着就超时了,不知道哪些用着比较舒服 3 个帖子 - 3 位参与者 阅读完整话题
这不是各种中转站开始陆续上gpt-image-2了嘛,最近想玩玩文生图了,然后我就又要面对本地LLM客户端的一堆问题了。 CherryStudio我早就不用了,臃肿到离谱,但是你别说,它的文生图功能确实强大,不是说多好用,而是至少能用; Kelivo的UI太…朴素了,我感觉作者今
你们官方的GLM能用吗,我MAX版本,现在token都吐不出来了,高峰卡成这样,不给个说法吗? 18 个帖子 - 10 位参与者 阅读完整话题
这东西我都没见过实物,在 USA 的同学有一台,但是他上线后应用的事情都快拉爆了,暂时没空测我的想法,只能想象着来问一下这里各位佬了: C++,Python 的代码 review; 根据提示词,处理 MySQL 返回来 8k~13k 条已成 JSON 的数据提取;(字段和内容不多
这东西我都没见过实物,在 USA 的同学有一台,但是他上线后应用的事情都快拉爆了,暂时没空测我的想法,只能想象着来问一下这里各位佬了: C++,Python 的代码 review; 根据提示词,处理 MySQL 返回来 8k~13k 条已成 JSON 的数据提取;(字段和内容不多
昨天看了 @smallmain 佬的k2.6真实项目评测,发现语言选择可能会造成结果不太一样,正好最近要开一个新项目,想着用不同模型来初始化一下对比看看。 我在的公司是个极其小众行业的公司,北美个位数的同行,全球不超20家同行,技术栈很杂乱,上古项目有delphi,foxpro,
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
第一步 pip install notebooklm-py# 这是一个github的项目 不知道是不是L站大佬谁写的,直接克隆下来运用太复杂了,不如都交给ai处理 pip install “notebooklm-py[browser]” playwright install ch
rt, 首先声明我不懂行, 都是在站内看到的 根据我看到的信息, 我认为几十万成本估计全天不间断蹬估计也就够十几个人最高档套餐同时用, 哪怕是原价最贵一个人也只是469, 10个4690,20个都不到一万, 回本都要几十个月了 说白了几十万的设备一个月顶天估计也就能挣一两万还不是
有没有深度使用 kimi2.6 和 glm5.1 的?哪个套餐能平替 gpt5.4(free),deepseek 一直没出留个坑作为推理模型。另外我对前端要求低…主要要会说人话、会主动调各种 skill、cli 工具、coding 后 fix bug 能接近 gpt 就行了。 8
抽奖主题:GLM Coding Plan 7天体验卡 * 5 奖品详情: [奖品]:GLM Coding Plan 7天体验卡 * 5 活动时间: 开始时间:[2026年4月22日下午6点00分] 截止时间:[2026年4月22日晚上12点00分] 参与方式: 在本帖下回复任意内
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
上个月才给老用户开了自动续费通道, 没想到这么快就顶不住了 盲猜 MiniMax 也快了