从 2 月开始用 Opus 4.6,到这几天切到 4.7,一些感悟和困惑
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
Max - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 804 篇相关文章 · 第 29 / 41 页
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
IT之家 4 月 22 日消息,博主 @数码闲聊站 今日再度爆料,称华为中端线还有一个 7 英寸级别巨屏新机, 配备 1.5K LTPS 高刷屏、搭载麒麟 8 系处理器 ,电池更大。 博主并未明说电池更大所对比的具体机型,但参考此次爆料的产品归属中端线,以及麒麟 8 系处理器来看
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
最近因为项目需要需要大的Coding Plan; 智谱的Max套餐暂时还没有买到,刚买了一个Kimi的199套餐。 直接用实际项目进行了一个简单的上手对比,让Kimi和GLM同时分析我的项目中的内容提取出一个特定范围的任务清单,并确认需求覆盖度;然后将两者的分析报告交叉比对。 从
IT之家 4 月 22 日消息,达尔优 (DAREU) 今日正式推出了 A3 MAX 头戴式电竞无线耳机。该型号 搭载 53mm 驱动单元 ,支持 2.4GHz 与蓝牙两种无线连接方式, 音频延迟低至 10ms ,磁吸充电底座兼具 2.4GHz 信号接收器和电量显示功能。 A3
现在编程套餐这么火爆,zhipu, minimax等都供不应求,模型都是开源的,硅基流动怎么没听说有推出编程套餐?反而最近没有什么动作的样子,纯好奇。 4 个帖子 - 3 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
像请问一下各位佬,claude的pro和max相关的5小时额度,周额度以及实际月额度是多少呀?找了一下好像没找到特别清楚的帖子,咨询一下各位佬 3 个帖子 - 3 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
谷歌账号所在地新加坡, pay绑定的地区是特拉华州 , 卡是万事达的卡, 为啥5x的支付要183刀 有没有懂的佬告知下 7 个帖子 - 5 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
各位大佬,经常碰到这个问题,实际权限都开到最大了,怎么破: “maxConcurrent”: 5, “sandbox”: { “mode”: “main” } } }, “tools”: { “profile”: “full”, “sessions”: { “visibility