en - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第221页 - 钛刻科技 | TCTI.cn

en - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第221页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 6396 篇相关文章 · 第 221 / 320 页

[程序员] Hermes agent 和小龙虾有什么平滑升级和防挂机制吗?

昨天问大家怎么去养虾,或者是养 Hermes agent ,大家都给我推荐说用笔记本或者是 Mac Mini ,我今天上班拿同事的 MacBook 试了一下,感觉踩了很多坑,刚开始用着感觉挺好用,但是让他执行一些复杂的任务就会失联,甚至崩溃,大家有什么方法吗?感觉这个入坑需要很大

tech v2ex.com 2026-04-24 14:41:41+08:00

[程序员] Hermes agent 和小龙虾有什么平滑升级和防挂机制吗?

昨天问大家怎么去养虾,或者是养 Hermes agent ,大家都给我推荐说用笔记本或者是 Mac Mini ,我今天上班拿同事的 MacBook 试了一下,感觉踩了很多坑,刚开始用着感觉挺好用,但是让他执行一些复杂的任务就会失联,甚至崩溃,大家有什么方法吗?感觉这个入坑需要很大

tech v2ex.com 2026-04-24 14:41:41+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 14:37:59+08:00

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 14:36:17+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 14:35:27+08:00

星辰AI 上线 gpt5.5、deepseek-v4-Pro

主站 ai.centos.hk New API 统一的 AI 模型聚合与分发网关,支持将各类大语言模型跨格式转换为 OpenAI、Claude、Gemini 兼容接口,为个人与企业提供集中式模型管理与网关服务。 Q群 介绍 充值比例为1:1 Claude 特惠渠道降至0.3元一刀

tech linux.do 2026-04-24 14:34:29+08:00

[人工智能] 我有个疑问:为什么现在豆包 / qwen 之类的面向大众的 AI 工具,免费且快速,而这些国内的这些 coding plan,收费、限购,不稳定,高峰期还不可用?

tech v2ex.com 2026-04-24 14:32:16+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 14:19:22+08:00

一个例子又拉回了我对 DeepSeek V4 Pro 的印象,后续还是得多多测试看看

用了一个 kimi 官网的 Agent 的示例 Prompt: 「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天

tech www.v2ex.com 2026-04-24 14:18:25+08:00

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 14:16:50+08:00

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 14:16:50+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 14:15:03+08:00

deepseek V4 ,你们确定Claude Code 能用了???

{“error”:{“message”:“The content[].thinking in the thinking mode must be passed back to the API.”,“type”:“invalid_request_error”,“param”:nul

tech linux.do 2026-04-24 14:07:33+08:00

[程序员] 一个例子又拉回了我对 DeepSeek V4 Pro 的印象,后续还是得多多测试看看

用了一个 kimi 官网的 Agent 的示例 Prompt: 「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天

tech v2ex.com 2026-04-24 14:07:02+08:00

[程序员] 一个例子又拉回了我对 DeepSeek V4 Pro 的印象,后续还是得多多测试看看

用了一个 kimi 官网的 Agent 的示例 Prompt: 「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天

tech v2ex.com 2026-04-24 14:06:26+08:00

一个例子又拉回了我对 DeepSeek V4 Pro 的印象,后续还是得多多测试看看

用了一个 kimi 官网的 Agent 的示例 Prompt: 「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天

tech www.v2ex.com 2026-04-24 14:03:48+08:00

gpt5.5快的我怕他不够聪明[破案了应该中转站的问题]

codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr

tech linux.do 2026-04-24 14:02:10+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:57:21+08:00

GPT 5.5终于不再问我愿不愿意,能一次性把活干完了 | Token消耗也大幅增加

十几个任务,能一次性完成。 就是目前上下文只有258k,基本每一两次对话就自动压缩。 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:55:51+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:53:00+08:00