[程序员] 怎么使用 ai 提升开发效率
各位大佬都是怎么把 ai 用到开发中的,自己倒是安装了 opencode ,买的 deepseek 的 api ,但是对现有的项目维护不太友好。如果用 jetbrains 家的 IDE ,要安装什么扩展
de - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第354页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 12883 篇相关文章 · 第 354 / 645 页
各位大佬都是怎么把 ai 用到开发中的,自己倒是安装了 opencode ,买的 deepseek 的 api ,但是对现有的项目维护不太友好。如果用 jetbrains 家的 IDE ,要安装什么扩展
直接调用 DeepSeek 官方明显比火山慢不少 大家一般都用哪里的服务?如果不是官方,主要是出于速度、稳定性还是价格考虑? 4 个帖子 - 4 位参与者 阅读完整话题
claude code中使用gpt就会像这样缓存卡在这里,上下文增长,但是缓存不会增长了,同样的gpt账号,我用cpa反代,然后在CC中就没这个缓存的问题。还有codex中无论使用sub2api或者cpa都没有这个问题 是我sub2api设置的问题吗。使用的最新0.119版本 1
rt,想知道DeepSeek的代码能力水平,例如用GPT或者Claude的代码水平来对比。想知道能力有是GPT5.2这个水平嘛? 11 个帖子 - 7 位参与者 阅读完整话题
看了下所有渠道都收到 额度刷新告警 了 Codex 5h + 1w 下次刷新 05/05 13:29 · 提前 21h 47m 06s · 恢复 67% → 0%
直接调用 DeepSeek 官方明显比火山慢不少 大家一般都用哪里的服务?如果不是官方,主要是出于速度、稳定性还是价格考虑?
这个plus订阅也买的太值了吧,周限就没用完过 6 个帖子 - 6 位参与者 阅读完整话题
部门同事对 ai 使用不太感冒,想在一台电脑上安装 codex cli/claudecode cli 使用写好的 skills 类似调用 api 一样写入一个前置的 system prompt. 来处理大家的需求,最好还能提供进度显示。请问有没有类似的实现方法?
老板体验了 claude 后拍板要把 claude 嵌入全公司工作流,让我去解决采购渠道问题,要求数据不得经过非正规公司传送,大概意思估计是买大厂 vps 自建 api 代理可以,但不能买贩子的中转站。但是先不说走什么代理的问题,国内几乎都找不到官 key 的货源啊,都是 5 刀
如题,平时都是用 cli 终端进行开发,截图沟通的时候很不方便。今天忽然发现 vscode 安装的 codex 插件可以正常使用,看了下 config.toml 配置,和终端都是通用的。支持直接点击模型、推理强度切换。 7 个帖子 - 6 位参与者 阅读完整话题
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
真是大善人,一个月不到重置了好几次。
真是大善人,一个月不到重置了好几次。
IT之家 4 月 28 日消息,阿里云官方今日宣布,阿里 QoderWork 上线专家套件功能 ,首批发布金融、法律、营销等六大领域的 10 个专家套件,将领域专业知识、工作流程和数据连接器打包“装”进 AI, 用户无需编写 Skill,即可一键获取专业领域的经验和知识 。 据I
sk-6Z9ulMIOLS3VT6jP087490D02e93405591BdD9Cc061133Be 只有这些模型:kimi-k2.5,minimax-m2.1/2.5 Openai: https://codingplan.alayanew.com/v1 Anthropic h
我说怎么蹬不动了 本来想着用完了去用官方的v4的 这还挺良心啊 官方降价它也加额度 另外现在GLM是4300 kimi是5700 和鲸鱼比起来就太贵了 2 个帖子 - 2 位参与者 阅读完整话题
一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。