glm的coding plan好难抢啊
glm的coding plan怎么才能抢上啊,每次到点都秒没。 2 个帖子 - 2 位参与者 阅读完整话题
od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第193页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 7826 篇相关文章 · 第 193 / 392 页
glm的coding plan怎么才能抢上啊,每次到点都秒没。 2 个帖子 - 2 位参与者 阅读完整话题
各位佬关于远程方案大家有什么见解 一直在用向日葵和todesk 但是感觉有的时候流畅性 还有一些付费限制其实很恶心 现在情况是我有多个办公场所 都放了一台windows电脑 我想能够流畅的去协同 或者远程其他电脑办公 以及有部分时候 需要用到手机远程临时办公 我还想在想 有没有什
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
哈哈哈哈哈哈哈。工具强还是Claude code强,有条件还是Claude code 以前用只能Claude code 切换模型玩玩。命令框看着不习惯,桌面版好多了 加上Claude code开源项目的记忆系统插件,这不妥妥的超级龙虾嘛。哈哈哈哈哈 佬友们玩起来 学AI,上L站
谷歌邮箱今天登陆codex连续2个都要加手机了,难道现在必须加了吗?昨天谷歌的还可以免手机。佬今天有不加手机成功的吗 12 个帖子 - 7 位参与者 阅读完整话题
大佬们,我想使用 cursor 到服务器上,因为也想试下服务器上安装 claude code,就在 cursor 上安装了 claude code for vs code 插件。 但是,这个插件貌似不支持 cursor 自己的 ssh 插件,只能使用微软的 vscode ssh
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥? 每次像便秘一样一下拉一点。。真的苦恼!!!! 5 个帖子 - 3 位参与者 阅读完整话题
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。 第一步:选对入口 DeepSeek 现在有两个模型: deepseek-v4-pro — 主力 deepseek-v4-flash — 快
每 5 小时:最多约 1,200 次请求 就问了 2 两个问题额度就耗光了,第 2 个问题刚好卡中间浪费时间。总共估计 100 次请求左右,它这是怎么计算的,10 倍吗! 卖不起就别卖,标的很高骗人进去,挂羊头卖狗肉
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
佬们,用codex的时候,一个号的额度用完了。但是线程还在跑。怎么能无缝衔接到下一个号接着跑。不让线程断呀 9 个帖子 - 7 位参与者 阅读完整话题
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、