claude 桌面版可以接国产api和中文界面啦
哈哈哈哈哈哈哈。工具强还是Claude code强,有条件还是Claude code 以前用只能Claude code 切换模型玩玩。命令框看着不习惯,桌面版好多了 加上Claude code开源项目的记忆系统插件,这不妥妥的超级龙虾嘛。哈哈哈哈哈 佬友们玩起来 学AI,上L站
Co - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第273页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 10601 篇相关文章 · 第 273 / 531 页
哈哈哈哈哈哈哈。工具强还是Claude code强,有条件还是Claude code 以前用只能Claude code 切换模型玩玩。命令框看着不习惯,桌面版好多了 加上Claude code开源项目的记忆系统插件,这不妥妥的超级龙虾嘛。哈哈哈哈哈 佬友们玩起来 学AI,上L站
谷歌邮箱今天登陆codex连续2个都要加手机了,难道现在必须加了吗?昨天谷歌的还可以免手机。佬今天有不加手机成功的吗 12 个帖子 - 7 位参与者 阅读完整话题
大佬们,我想使用 cursor 到服务器上,因为也想试下服务器上安装 claude code,就在 cursor 上安装了 claude code for vs code 插件。 但是,这个插件貌似不支持 cursor 自己的 ssh 插件,只能使用微软的 vscode ssh
从 GitHub copilot学生认证版会员高级模型不再支持手动指定模型 继续讨论: 这GitHub这几个月做的事也挺奇怪:砍完学生选择高阶模型权益又砍免费试用,砍完免费试用又关闭新购,实装5小时限额与周限额,现在直接上token plan并原地平移,按次调用套餐将彻底成历史
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
GitHub Copilot 的模型和定价 https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing 来源: https://news.ycombinator.com/item?
GitHub Copilot 的模型和定价 https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing 来源: https://news.ycombinator.com/item?
GitHub Copilot 的模型和定价 https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing 来源: https://news.ycombinator.com/item?
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥? 每次像便秘一样一下拉一点。。真的苦恼!!!! 5 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 28 日消息,微软旗下 GitHub 今日宣布,其 AI 编程工具 GitHub Copilot 将自 2026 年 6 月 1 日起从固定额度订阅制全面转向按使用量计费模式。 届时,所有 Copilot 计划将不再采用“高级请求”(Premium Reques
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。 第一步:选对入口 DeepSeek 现在有两个模型: deepseek-v4-pro — 主力 deepseek-v4-flash — 快
每 5 小时:最多约 1,200 次请求 就问了 2 两个问题额度就耗光了,第 2 个问题刚好卡中间浪费时间。总共估计 100 次请求左右,它这是怎么计算的,10 倍吗! 卖不起就别卖,标的很高骗人进去,挂羊头卖狗肉
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。