[程序员] 帮大家试过了 V4 变强了,但是也太贵了,早点出 coding plan 吧
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第288页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8552 篇相关文章 · 第 288 / 428 页
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit
一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
技巧 和 codex 额度重置不一样,Claude 直接给你账单清零了,等于你今天可以大用特用,明天早上 8 点又会刷新周额度. 趁我睡觉,手机告警了,凌晨 1:06 左右提前刷新的 还是用少了,别省着,省就亏啊,昨天/今天/明天,用的猛的可以合理用完 3 个 weekly 额度
技巧 和 codex 额度重置不一样,Claude 直接给你账单清零了,等于你今天可以大用特用,明天早上 8 点又会刷新周额度. 趁我睡觉,手机告警了,凌晨 1:06 左右提前刷新的 还是用少了,别省着,省就亏啊,昨天/今天/明天,用的猛的可以合理用完 3 个 weekly 额度
为什么我用/model这样切换模型会直接卡死,有佬友可以指点一下吗 2 个帖子 - 2 位参与者 阅读完整话题
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。
兄弟们,太难了...难道我需要开两个账号了? 你们现在都是什么配置
兄弟们,太难了...难道我需要开两个账号了? 你们现在都是什么配置
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。
npm install -g @openai /codex@0.125.0-alpha.2 安装 alpha版本 可以在模型列表切换,之后可以正常更新 7 个帖子 - 7 位参与者 阅读完整话题
🧊 导航魔方 NaviCube 智能单文件书签与导航站管理工具。 整理链接、定制样式、导出一个漂亮的 HTML 页面——无需注册、无需服务器、无需依赖。 ✨ 功能亮点 📂 拖拽管理书签分类 🎨 定制页面样式——布局、主题、颜色 🤖 AI 智能整理自动化 📤 导出为 HTML 或
试了下rikkahub不能正常调用,不知道有没有别的客户端可以支持 7 个帖子 - 3 位参与者 阅读完整话题
Docker 对于大多数自托管应用支持的比较好,个人使用也基本熟悉了。 Podman 的无守护进程和默认的 Rootless 很好用,在服务器上测试部署了一个服务,感觉还挺好的。
以前在OpenCode中使用Claude和GPT的时候就发现. 同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token. 现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100kto
RT,今天让5.5模型帮忙生成一些几十个emoji表情,思考速度是中,标准模式和快速模式都试过,但是依旧是生成几个之后就开始报错,只能重新继续任务,下面是报错信息,跟我的网络环境有关系吗? stream disconnected before completion: An err
专家模式: 快速模式: 快速模式居然是三个独立的球,不过交互比专家模式有意思 Claudecode支持1m上下文? 另外,之前看预告一直说v4出多模态了,还是原生多模态,和模型一起训练的,非拼接,如果客户端已经是v4的话,那就是没有多模态了吧 1 个帖子 - 1 位参与者 阅读完