Codex这个压缩失败太折磨人了
16 个帖子 - 13 位参与者 阅读完整话题
Code - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第114页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 4868 篇相关文章 · 第 114 / 244 页
16 个帖子 - 13 位参与者 阅读完整话题
现在 cc + codex 加持,我已经一年没手写过一行代码了。 可能也是 Go 本身没什么语法糖和花活,AI 写起来稳定;再加上 review 成本低,go test 做单测也极其顺手。 我敢断言: 目前的 cc ,已经可以完全替代初级和中级甚至高级程序员。 如果国产模型能达到
本人 claude 账号注册很久了,从 3.5 就开始用,一直开 pro 计划在用,今天升级 max 计划,刚消费完 125 刀,触发 KYC ,然后找小黄鱼代过 KYC ,直接封禁,目前正在申请 apple 退款,也不知道能不能把我的 125 刀退还。 近期不建议大家动 cla
众所周知,gpt写的前端拉完了,但是如果必须从5.4和5.3-codex中选,哪个会更好呢 11 个帖子 - 10 位参与者 阅读完整话题
现在 cc + codex 加持,我已经一年没手写过一行代码了。 可能也是 Go 本身没什么语法糖和花活,AI 写起来稳定;再加上 review 成本低,go test 做单测也极其顺手。 我敢断言: 目前的 cc ,已经可以完全替代初级和中级甚至高级程序员。 如果国产模型能达到
每 5 小时:最多约 1,200 次请求 就问了 2 两个问题额度就耗光了,第 2 个问题刚好卡中间浪费时间。总共估计 100 次请求左右,它这是怎么计算的,10 倍吗! 卖不起就别卖,标的很高骗人进去,挂羊头卖狗肉
用Claude code调用写代码感觉笨笨的,大佬们都是怎么使用的? 1 个帖子 - 1 位参与者 阅读完整话题
背景 Claude 账号被 ban 了,目前手上只剩 Codex 还在服役。这段时间跟 Claude 斗智斗勇属实心累,不想再折腾了,想着干脆转 Cursor 或者 Windsurf 算了。 纠结点 Cursor 和 Windsurf 看起来都还行,想问问老哥们哪个更耐用点 Cu
相信很多人都遇到这样的问题:使用 claude code 时一直要权限太麻烦,bypass 又太危险。 所以 claude 三月出的 auto 模式就是最优解了,兼顾流畅和安全 但是问题来了,auto 模式只有 claude 模型才能用,你接 glm,deepseek,gpt 都
现在 cc + codex 加持,我已经一年没手写过一行代码了。 可能也是 Go 本身没什么语法糖和花活,AI 写起来稳定;再加上 review 成本低,go test 做单测也极其顺手。 我敢断言: 目前的 cc ,已经可以完全替代初级和中级甚至高级程序员。 如果国产模型能达到
各位佬们,我来咨询一下,大家再用codex cli、codex app,是如何给的权限呢? 给全部访问权限靠谱不,安全不? 5 个帖子 - 3 位参与者 阅读完整话题
现在是 vscode 系列或命令行里 ai 确认了,jetbrain ide 里看代码 改代码 ,主要熟悉里面快捷键 ,大佬们是怎么做的,之前还装过 vscode 切 ide ,ide 里切 vscode 的 插件
好几个公益站换了都是这个报错 2 个帖子 - 2 位参与者 阅读完整话题
vscode 自带的 intelliSense 感觉有时找到的函数定义不对 试了下 clangd ,发现找不到第三方库代码的实现吗? 用的 vtk 改成 cl.exe 或 clang-cl.exe 都找不到第二层函数实现,只能找到我的函数调用的第一层 vscode 设置 &quo
先贴网址 https://www.codex-docs.com/ why 因为 codex 的官方网站不能切到中文,看英文很累 因为 claude 对国内相对不友好,所以 codex 大概率会成为国外模型的首选 优势 更新及时: 基本会和官网同步,相差时间不超过 1 天,写了专门
学生党,目前是某个有质保的codex team,每个月30块钱左右,但我目前消耗不是很多,因为组里会报销一个月的qoder,我都是qoder和codex结合使用。codex消耗我放了图,确实不咋多,而且一周也就工作四天左右。所以想问一下佬友如何划算 6 个帖子 - 6 位参与者
approvals_reviewer = “auto_review” 该变量如果设置为上述配置 在调用时会返回503问题 我搭建的是subapi的个人中转站 503的意思就是 找不到模型 因为codex在使用这个配置的时候请求的模型为auto_review_model而不是主模型
目前在用 OpenCode Go 的 GLM-5.1 套餐,整体响应速度和稳定性都不错,体验挺好。 但用量消耗很快,才使用一周就已经耗掉 65%~70% 额度,眼看就要不够用了。 之前也试过百度、火山引擎的相关套餐,同样是跑 GLM-5 ,体验很差,基本没法正常使用。智谱官网的
RT,就是打开codex app一开始那个logo,一直卡在加载,公司截图有水印就不放图了。 codex cli正常,我配置过.env,找半天也没找到问题源头。 有佬碰到过通过的问题吗 4 个帖子 - 3 位参与者 阅读完整话题
现在是 vscode 系列或命令行里 ai 确认了,jetbrain ide 里看代码 改代码 ,主要熟悉里面快捷键 ,大佬们是怎么做的,之前还装过 vscode 切 ide ,ide 里切 vscode 的 插件