DeepSeek-V4与GPT-5.5天气效果对比
提示词统一,并且都是用claude code进行生成 你是 Apple Inc 的顶级 UI 设计师,以 iOS 18 的设计风格(毛玻璃效果、高斯模糊、动态渐变、细腻阴影)创建一个单个HTML文件(包含完整CSS和JavaScript)。实现横板天气页面,包含4个并排的动画天气
od - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第302页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8619 篇相关文章 · 第 302 / 431 页
提示词统一,并且都是用claude code进行生成 你是 Apple Inc 的顶级 UI 设计师,以 iOS 18 的设计风格(毛玻璃效果、高斯模糊、动态渐变、细腻阴影)创建一个单个HTML文件(包含完整CSS和JavaScript)。实现横板天气页面,包含4个并排的动画天气
昨天在别的群看一个佬说,他们几个人买了个美西 vps,一个月100 多,挂插件注册了几千个账号。没换过ip, 没有风控,没有add phone。佬们觉得可行吗。虽然这种要付费vps,但是一个也能够注册几千个,也是值得试的。正常在电脑挂 sub2api 之类的,节点要经常换,而且效
Roo code 宣布 5 月中旬结束官方的支持。官方转向做 Roomote ,后续的 Roo code 可能交由社区维护或者直接关停。有啥平替推荐吗?
技巧 和 codex 额度重置不一样,Claude 直接给你账单清零了,等于你今天可以大用特用,明天早上 8 点又会刷新周额度. 趁我睡觉,手机告警了,凌晨 1:06 左右提前刷新的 还是用少了,别省着,省就亏啊,昨天/今天/明天,用的猛的可以合理用完 3 个 weekly 额度
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
早上充了3刀,然后在左侧菜单栏换了好几个服务,好几个号码,都收不到codex发的短信呢?是号码的问题还是ChatGPT的问题呢?各位佬请教下。 5 个帖子 - 5 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。
想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。
也加了这个了:model_catalog_json = ‘.\model-catalog.gpt-5.5.json’ codex app和codex cli也都更新过了。本来cli也没有的,也是更新+添加json可以。微软商店的codex app 26.422.2437.0不是最
{“error”:{“message”:“The content[].thinking in the thinking mode must be passed back to the API.”,“type”:“invalid_request_error”,“param”:nul
codex使用我看了下后台tps不算首字也就45token/s左右,用了半天为啥感觉好快啊!!我都怕他不够聪明,你们也是吗? 体感比5.4fast模式都快了30%,我之前一直用的fast 我开发都有点心虚,这么快会不会哪里有坑,review代码都要切回5.4去 网页使用5.5pr
👤 个人简介 29 岁,7 年开发经验,技术栈不设限( react vue nodejs java 都可),具备丰富的跨端开发经验,有鸿蒙产品 0-1 经验和原生 ios 开发经验也有 RN 开发经验,在日常开发和个人项目中,将 ClaudeCode 、Cursor 、Codex
看各位佬都在测,但是似乎效果没有很好,提醒一下大家配置: export ANTHROPIC_MODEL=deepseek-v4-pro export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m] export ANTHROPIC
今天刚刚订阅的这个Plus,原先24年订阅过一年,但是没有现在的功能丰富 (我个人是轻度开发,所以用到的其实不是很多,而且还是间歇用的,以及有中转站兜底) 前几天一直在国模、OpenCode和GPT之间徘徊,看了看KIMI的价格以及GLM等的价格,以及他们的隐私政策(将用户的数据
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?