co - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第231页 - 钛刻科技 | TCTI.cn

co - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第231页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 10297 篇相关文章 · 第 231 / 515 页

[GitHub] warp 开源了

终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp

tech v2ex.com 2026-04-29 05:01:54+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 04:57:02+08:00

codex20 pro掉了,心疼ing

买的坚持了17天就卒了,想继续转战plus了,T_T 27 个帖子 - 18 位参与者 阅读完整话题

tech linux.do 2026-04-29 04:54:50+08:00

[程序员] 既然现在 ai coding 都改成按量计费了,用 opencode+apikey 是否更省钱?

如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点

tech v2ex.com 2026-04-29 04:21:31+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 04:17:11+08:00

[GitHub] warp 开源了

终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp

tech v2ex.com 2026-04-29 04:01:54+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 03:57:42+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 03:57:02+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 03:24:59+08:00

[GitHub Copilot] GitHub Copilot web 页面 Claude 和 Codex 2 个 agent 好像用不了

Copilot Enterprise licenses web 页面 Claude 和 Codex 2 个 agent api 报错 API Error: 400 {"error":{"message":"The requeste

tech v2ex.com 2026-04-29 03:14:49+08:00

[分享创造] 做了一个 macOS 上的也许比欧路更适合学习英语的词典 app:闪卡词典

起因 市面上主流的背单词软件例如墨墨、百词斩,它们背单词的方法基本都可以称为映射法,即看英文,背中文意思,往往还是一个单词同时背多个意思,背的过程就是由人脑去做映射的过程,映射上了就算背下了,没映射上就反复看意思、图片、助记文案等,直到下一次能映射上。映射法有以下问题: 单词之间

tech v2ex.com 2026-04-29 03:07:50+08:00

[GitHub] warp 开源了

终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp

tech v2ex.com 2026-04-29 03:01:54+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 02:57:02+08:00

关于一个vibecoding小项目

我想vibe一个网页,里面包括了地图和实时定位,帮助游客节约时间,能够直观找到自己在景区的位置,方便找厕所或饭店什么的,但是实操起来没我想象中的简单。 工具:codex cc gemini codex里image2生图也能力也有限,没法精确点位。所以我本打算利用高德开放平台把整个

tech linux.do 2026-04-29 02:46:40+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:40:26+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:21:27+08:00

[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!

MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$

tech v2ex.com 2026-04-29 02:08:42+08:00

[分享创造] 做了一个 macOS 上的也许比欧路更适合学习英语的词典 app:闪卡词典

起因 市面上主流的背单词软件例如墨墨、百词斩,它们背单词的方法基本都可以称为映射法,即看英文,背中文意思,往往还是一个单词同时背多个意思,背的过程就是由人脑去做映射的过程,映射上了就算背下了,没映射上就反复看意思、图片、助记文案等,直到下一次能映射上。映射法有以下问题: 单词之间

tech v2ex.com 2026-04-29 02:07:50+08:00

[GitHub] warp 开源了

终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp

tech v2ex.com 2026-04-29 02:01:54+08:00

[Local LLM] 能一起给本地部署的开源模型做个适配的 coding agent 吗?我憋了口气

我做了一个专门为本地开源模型优化的 Coding Agent ,希望更多华人开发者一起来搞 本贴发布的目的不是推产品,不是炫技,而是想扬眉吐气——和华人开发者一起,和开源模型本地部署开发者一起,做一件我们自己的事。 一、我遇到了什么问题 去年开始用本地模型做编程辅助。原因很简单:

tech v2ex.com 2026-04-29 01:57:02+08:00