Open - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第60页 - 钛刻科技 | TCTI.cn

Open - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第60页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1895 篇相关文章 · 第 60 / 95 页

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 12:20:49+08:00

[OpenAI] 试用的路子是也没了吗

看了几个收藏的小店,全线涨价就不说了,plus 订阅都缺货了,只有 100+的 pro ,还都没质保,所以现在手里的号等到期了以后 codex 也不能爽蹬了是嘛:(((

tech v2ex.com 2026-04-24 12:10:54+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 12:06:18+08:00

黄仁勋要求英伟达所有员工使用OpenAI的Codex编程工具

OpenAI首席执行官萨姆·奥特曼在社交平台上分享了英伟达CEO黄仁勋发给他的一封电邮。黄仁勋在邮件中附上了他给英伟达全体员工的一封电邮,要求他们使用OpenAI的Codex编程工具。 黄仁勋在邮件中写道:“亲爱的英伟达员工们,基于GPT-5.5的OpenAI Codex现已正式

tech plink.anyfeeder.com 2026-04-24 12:05:53+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 12:01:21+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:56:19+08:00

GPT 5.5 发布了

https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com

tech www.v2ex.com 2026-04-24 11:52:07+08:00

GPT 5.5 发布了

https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com

tech www.v2ex.com 2026-04-24 11:48:33+08:00

无人在意的角落,蚂蚁发布了一个1t的模型

之前openrouter上elephant的1t版本: inclusionai/ling-2.6-1t:free 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:47:22+08:00

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 11:40:24+08:00

openclaw 时代,我觉得 V4-flash 才是绝杀

openclaw 培养了我们使用 agent 的习惯后,我觉得 V4 的 flash 版本将会是绝杀,输入百万 token才 1 块,命中缓存才 0.2,输出才 2 块。 openclaw 那些查询 memory,查询 skills 的操作将变得毫无负担,这可能又一次革了那些 t

tech linux.do 2026-04-24 11:39:46+08:00

[程序员] GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech v2ex.com 2026-04-24 11:30:51+08:00

GPT 5.5 发布了

https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com

tech www.v2ex.com 2026-04-24 11:28:04+08:00

GPT 5.5 发布了

https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com

tech www.v2ex.com 2026-04-24 11:27:12+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:17:44+08:00

[问与答] 为什么通过 OpenAI codex 授权码配置的 hermes model 回复这么慢

但是在客户端或网页端的回复就很快

tech v2ex.com 2026-04-24 11:12:40+08:00

GPT 5.5 发布了

https://openai.com/index/introducing-gpt-5-5/ API 定价比 5.4 贵 For API developers, gpt-5.5 will soon be available in the Responses and Chat Com

tech www.v2ex.com 2026-04-24 11:11:03+08:00

[问与答] DeepSeek v4 发布了,有人用了吗?效果如何

模型细节 模型 deepseek-v4-flash* deepseek-v4-pro BASE URL (OpenAI 格式) https://api.deepseek.com BASE URL (Anthropic 格式) https://api.deepseek.com/an

tech v2ex.com 2026-04-24 11:05:27+08:00

[分享发现] DeepSeekV4 来了, 希望可以抗衡御三家

模型细节 模型 deepseek-v4-flash* deepseek-v4-pro BASE URL (OpenAI 格式) https://api.deepseek.com BASE URL (Anthropic 格式) https://api.deepseek.com/an

tech v2ex.com 2026-04-24 11:04:10+08:00

[程序员] 轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech v2ex.com 2026-04-24 11:03:15+08:00