Codex agentic loop 会导致代码严重膨胀,有人遇到吗?有没有系统性的解法?
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
EN - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第169页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 6018 篇相关文章 · 第 169 / 301 页
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
前段时间小米不是搞了送 token 的那个活动吗。我因为订阅了小米的 token plan ,发现群里但凡还咋订阅的,送的都是赠金。然后这个增加不能购买套餐,只能直接使用 API 消耗。等于说是 300 多的定金实际上的 token 跟 39 块钱的套餐差不多。 付费订阅用户被大
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
最近几天突然想到给自己的项目设计了一版spec coding 的文档,让ai改了现在的工作流程,因为最近看了一些佬们的工作流的开源分享,把spec coding 加入到了现有的流程里,可能是模型能力提升的原因,也可能是改过的工作流的原因,还算比较好用。 所以有感而发这些使用能力是
本人是某大学的PhD,研究方向是生物信息大模型、生物信息Agent、AI蛋白,然后各类Vibe Coding用的炉火纯青,也有一些还不错的产出。各位觉着在L站开个很小的科研板块如何呢?就是专门用来交流讨论,不以诞生idea为主,更多的是帮助一些在校学生或者在职工作人员从底层了解A
非推广,纯分享,和下方参考视频、Github项目均无利益关系! 众所周知, Qwen3.5-27B 在多方面的能力表现惊艳,甚至能打一两年前的超大模型,然而在本地部署中,其较低的速度往往让体验大打折扣,即使是 90 级别显卡也只有二三十 Token/s,远不如 Qwen3.5-3
请教各位佬有遇到过openclaw 调用公益站的时候出现502的情况吗,只有openclaw 去调用的时候会,我用cherry studio 调用就正常,是要改什么配置吗 如图 openclaw 的请求 cherry studio 的请求 4 个帖子 - 4 位参与者 阅读完整话
看到很多佬们token需求很大,但我连年初白嫖的gemini pro都用不完。 感觉网页版完全够用。好着急焦虑,感觉是自己不会用,总是泡论坛,问ai好像也解决不了我的疑问。 Cherry studio不就是多了一些预设了提示词的智能体? 在不写代码的情况下,用api的token比
V3.2 时代我就对 DS 有偏见。原因非常的直观:听不懂人话,在理解隐含意图的层面上连 qwen 3.5 都打不过。 结果 V4 时代仍然不能很好的听懂人话,作为 T 级参数量的模型,结果连降智降成傻子的 Gemini 3 flash 都不如。 包括做题能力。V4 pro 的做
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
这个首月5刀看起来很划算呀 1 个帖子 - 1 位参与者 阅读完整话题
技术上能明白,用new api搭建的,但…那些平台的token是咋来的,不太明白,有没有大佬展开说说 10 个帖子 - 8 位参与者 阅读完整话题
我这边有需求,每天消耗大概1000M-2000M的token,希望多找找些能提供glm5或者deepseekv3.2的渠道,有佬友相关资源也可以合作,最好是长久稳定的渠道,可能会有涉及nsfw(希望可以支持nsfw) 7 个帖子 - 4 位参与者 阅读完整话题
openai今天官网更新了最新的规则,说免费用户的codex是限时提供的了,回想这一路的白嫖路程,从谷歌到gpt,从学生到大兵,从cursor到kiro,从ai写完代码要自己再审一遍到全部丢给ai写,在不停的使用过程中发现自己也慢慢的丧失了写代码的能力哈哈哈。每天的任务好像就是在
20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数
20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数
来源: Introducing OpenAI Privacy Filter | OpenAI Demo: 流程大概是 对用户的输入使用该小模型处理, 识别输入中的敏感信息, 将其替换为替代词(环境变量?), 脱敏后发送给云端LLM. 云端的LLM返回后, 再在本地对输出按需恢复.