od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第155页 - 钛刻科技 | TCTI.cn

od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第155页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 7379 篇相关文章 · 第 155 / 369 页

怎么使用 ai 提升开发效率

各位大佬都是怎么把 ai 用到开发中的,自己倒是安装了 opencode ,买的 deepseek 的 api ,但是对现有的项目维护不太友好。如果用 jetbrains 家的 IDE ,要安装什么扩展

tech www.v2ex.com 2026-04-28 22:51:48+08:00

怎么使用 ai 提升开发效率

各位大佬都是怎么把 ai 用到开发中的,自己倒是安装了 opencode ,买的 deepseek 的 api ,但是对现有的项目维护不太友好。如果用 jetbrains 家的 IDE ,要安装什么扩展

tech www.v2ex.com 2026-04-28 22:51:48+08:00

JS/Node 已经是新时代的 Java 了吧

一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。

tech www.v2ex.com 2026-04-28 22:45:33+08:00

全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech www.v2ex.com 2026-04-28 22:43:12+08:00

[程序员] 既然现在 ai coding 都改成按量计费了,用 opencode+apikey 是否更省钱?

如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点

tech v2ex.com 2026-04-28 22:42:55+08:00

有适用于CLion(JB)的Codex插件吗

我是挺喜欢用codex的,不过这个ui啊 就是说这个get content我每次看了就会莫名其妙的难受还有时不时出现的,不用写工具写文件也不知道是不是俩东西搞冷战,改的代码我也看不见都不知道在干啥 JB家有没有好用的codex的官方插件呢?我找到过一个非官方的,不过不知道表现如何

tech linux.do 2026-04-28 22:38:01+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:37:29+08:00

各位佬,codex生图是不是不支持设置size

输入 "tools": [{"type": "image_generation", "size": "2048x1152"}] 返回 "output": [{&

tech linux.do 2026-04-28 22:31:59+08:00

为什么到现在没有一家知名厂商提供支持 DeepSeek V4 Pro 的 Coding/Token Plan

虽然 V4 已经足够便宜了,但是我在想如果有 plan 的话会不会更便宜 但是一直没等到有 V4 Pro 的 Plan 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 22:28:52+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:28:45+08:00

[Codex] 限时 codex 0.01 一刀,并发限制每分钟 5

sk-dxazpR7kDyPgWueRJXCVCwSQtgeXtlvtcHPeSt7awQ3te5LN https://cf.manusn.com

tech v2ex.com 2026-04-28 22:23:18+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:14:29+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:10:04+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-28 22:03:09+08:00

为啥在codex app里面上下文用这么快?

感觉比 cli 里面不耐用的很,一个复杂任务 5.5 的上下文就满了…且间接导致 app 里面用着卡卡的 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 22:02:38+08:00

使用GPT模型写代码,如果硬要二选一,codex cli和claude code怎么选择?

不考虑桌面端使用GPT,codex cli和claude code二选一 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-28 22:01:43+08:00

能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech www.v2ex.com 2026-04-28 22:00:08+08:00

claudecode用gpt模型没有缓存

如题,claudecode用gpt模型没有缓存,有佬友知道咋设置吗 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 21:57:02+08:00

[程序员] 既然现在 ai coding 都改成按量计费了,用 opencode+apikey 是否更省钱?

如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点

tech v2ex.com 2026-04-28 21:56:10+08:00

大佬们,Cpa怎么用

古法注册了写codex,然后账号多了很多额度用光了,还有很多不能用了。 要一个个的禁用额度用光了的吗,然后彻底废的也要一个个的删吗,感觉不会用了,不应该这么麻烦才对啊。 求教下大佬。 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-28 21:55:53+08:00