Claude code pro 最近是不是偷偷砍了 usage?
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
en - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第225页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 6418 篇相关文章 · 第 225 / 321 页
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
看看CPA统计中,3.8M中3.3M是缓存token 看起来还不错,相比5.4 10 个帖子 - 7 位参与者 阅读完整话题
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
有没有 V 友感觉最近 cc 看了五个小时 session 的 token usage 啊?这两天问不几轮对话就把五个小时的 usage 干满了,沟槽的 A/
DeepSeek V4 这波性能更新可以啊。 参数量上来了,不过价格也上来了。 Pro 还是有点小贵的。 项目 deepseek-v4-flash* deepseek-v4-pro BASE URL(OpenAI 格式) https://api.deepseek.com http
来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题
https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com
https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com
请问一下大家是怎么让多agent之间是怎么沟通,比如定义了3个profile,分别是总监、研发、测试,他们是怎么进行沟通的呢? 目前3个agent都接入了飞书,网上搜索了一轮没发现它们在飞书中能进行沟通的配置。 想法是飞书上和总监沟通,然后总监推进需求和设计 -》 研发接受总监的
我连续打了 5 次 POST /v1/images/generations,全部返回 400,报错:Tool choice ‘image_generation’ not found in ‘tools’ parameter. 3 个帖子 - 3 位参与者 阅读完整话题
最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦… 干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。 现在顺手放出来,有需要的可以试试。 支持的东西不多,目前就主打 codex ,支持最新的 GPT-5
之前openrouter上elephant的1t版本: inclusionai/ling-2.6-1t:free 1 个帖子 - 1 位参与者 阅读完整话题
Hermes Agent 维护参考文档 用途 :大模型快速索引 Hermes Agent 常用命令与配置 适用版本 :v0.x (持续更新,版本号以 hermes --version 为准) 来源站点 : Hermes Agent Documentation | Hermes A
从100M token,输出占比20%,缓存命中占比80%计算,deepseek v4和kimi 2.6,glm5.1,qwen3.6的收费没有明显差距了。API价格各大模型官方可查 6 个帖子 - 6 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
openclaw 培养了我们使用 agent 的习惯后,我觉得 V4 的 flash 版本将会是绝杀,输入百万 token才 1 块,命中缓存才 0.2,输出才 2 块。 openclaw 那些查询 memory,查询 skills 的操作将变得毫无负担,这可能又一次革了那些 t
最期待的模型之一,希望能把 token 价格打下来
最近在重度使用 codex app ,被官方价格 + 限制搞得有点烦… 干脆自己弄了个中转站,原本只是自己用的,刚好自己有一些上游渠道可以搞到一些相对低价的 pro 账号来轮询。 现在顺手放出来,有需要的可以试试。 支持的东西不多,目前就主打 codex ,支持最新的 GPT-5