为什么我感觉 Codex 审美好差
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
co - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第283页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 10790 篇相关文章 · 第 283 / 540 页
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
我之前用 Flutter ,通过 Gemini 写了一个学英语的 App ,最近想迭代功能,感觉 Flutter 很多细节上不太满意,决定换成 macOS 原生开发了。找 Codex 开发,GPT-5.5 + Extra High ,重构是比较顺利,可以跑起来,但是真的,太丑了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
老是 如果XXX你要XXX我就继续 真的好烦人 我不要我还叫你做这个任务干啥? 每次像便秘一样一下拉一点。。真的苦恼!!!! 5 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 28 日消息,微软旗下 GitHub 今日宣布,其 AI 编程工具 GitHub Copilot 将自 2026 年 6 月 1 日起从固定额度订阅制全面转向按使用量计费模式。 届时,所有 Copilot 计划将不再采用“高级请求”(Premium Reques
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。 第一步:选对入口 DeepSeek 现在有两个模型: deepseek-v4-pro — 主力 deepseek-v4-flash — 快
每 5 小时:最多约 1,200 次请求 就问了 2 两个问题额度就耗光了,第 2 个问题刚好卡中间浪费时间。总共估计 100 次请求左右,它这是怎么计算的,10 倍吗! 卖不起就别卖,标的很高骗人进去,挂羊头卖狗肉
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
佬们,用codex的时候,一个号的额度用完了。但是线程还在跑。怎么能无缝衔接到下一个号接着跑。不让线程断呀 9 个帖子 - 7 位参与者 阅读完整话题
一周前停的新用户付费吧,这半夜发的邮件要改token计费了。 12 个帖子 - 10 位参与者 阅读完整话题
CPU Intel Core i7-8550U @ 1.80GHz (睿频 4.0GHz ) 4 核 8 线程, 8MB L3 缓存 内存 16GB DDR4 (已用 4.4GB ,可用 11GB ) 7.7GB Swap 显卡 集显: Intel UHD Graphics 62
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
好了,已经生气了,出200lcd希望有佬帮我用你调教好的codex,看下能否让我找到的这个软件绕过激活码或者绕过联网验证。 站内那啥cft提示词也用了,但是到最后要绕过时候就是不给过,无语了。 链接:我用夸克网盘分享了「DL_11_26.04.25Z版.rar」,点击链接即可保存
每 5 小时:最多约 1,200 次请求 就问了 2 两个问题额度就耗光了,第 2 个问题刚好卡中间浪费时间。总共估计 100 次请求左右,它这是怎么计算的,10 倍吗! 卖不起就别卖,标的很高骗人进去,挂羊头卖狗肉
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
CN: 我最近在 Claude Code 中测试 gpt-5.4 ,但它的响应和完成任务速度非常慢。 我想请教一下已经使用过它的朋友: gpt-5.4 在 Claude Code 中通常会比 Claude 模型更慢吗? 这个延迟是由模型本身、API 服务商,还是 Claude C
CPU Intel Core i7-8550U @ 1.80GHz (睿频 4.0GHz ) 4 核 8 线程, 8MB L3 缓存 内存 16GB DDR4 (已用 4.4GB ,可用 11GB ) 7.7GB Swap 显卡 集显: Intel UHD Graphics 62
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
刚收到邮件内容,大概是告知将于六月份调整为积分制消费 https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/?utm_medium=email&