od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第149页 - 钛刻科技 | TCTI.cn

od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第149页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 7314 篇相关文章 · 第 149 / 366 页

[程序员] 既然现在 ai coding 都改成按量计费了,用 opencode+apikey 是否更省钱?

如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点

tech v2ex.com 2026-04-29 04:21:31+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 04:17:11+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 03:57:02+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 03:24:59+08:00

[GitHub Copilot] GitHub Copilot web 页面 Claude 和 Codex 2 个 agent 好像用不了

Copilot Enterprise licenses web 页面 Claude 和 Codex 2 个 agent api 报错 API Error: 400 {"error":{"message":"The requeste

tech v2ex.com 2026-04-29 03:14:49+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 02:57:02+08:00

关于一个vibecoding小项目

我想vibe一个网页,里面包括了地图和实时定位,帮助游客节约时间,能够直观找到自己在景区的位置,方便找厕所或饭店什么的,但是实操起来没我想象中的简单。 工具:codex cc gemini codex里image2生图也能力也有限,没法精确点位。所以我本打算利用高德开放平台把整个

tech linux.do 2026-04-29 02:46:40+08:00

JS/Node 已经是新时代的 Java 了吧

一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。

tech www.v2ex.com 2026-04-29 02:45:33+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:40:26+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:21:27+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:08:42+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:57:02+08:00

Claude Code又崩溃了啊

全世界几百万几千万天才程序猿又歇菜了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-29 01:52:59+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:52:54+08:00

既然现在 ai coding 都改成按量计费了,用 opencode+apikey 是否更省钱?

如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点

tech www.v2ex.com 2026-04-29 01:50:07+08:00

JS/Node 已经是新时代的 Java 了吧

一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。

tech www.v2ex.com 2026-04-29 01:45:33+08:00

求助一下,快被codex搞崩溃了

本来看到奥特曼重置了额度挺高兴,打算打开codex继续调代码,结果codex打开就崩溃了,后续搞了一晚上,改代理,换节点,清缓存,数据分离排查,设置里修复,然后重置,最后卸载,然后重新在微软商店里下载(倒底为什么非要指定用微软商店安装啊 ),结果下载不下来了,一直显示错误,然后又

tech linux.do 2026-04-29 01:43:37+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 01:39:55+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:21:08+08:00

跟佬们请教一下gpt的使用问题

看到佬们的说法和评测,gpt 5.5,5.4以及codex 5.3的效果应该都还不错。 但我实际在cursor中使用测试,同一个项目的实际问题(我认为我描述的其实比较详细,包括在哪个前端页面地址,点击哪个按钮,得到什么结果,预期如何,并提供完整的整个过程的请求har导出),让这三

tech linux.do 2026-04-29 01:19:28+08:00