避免 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

避免 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 54 篇相关文章 · 第 2 / 3 页

开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech www.v2ex.com 2026-04-28 13:01:03+08:00

开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech www.v2ex.com 2026-04-28 12:53:53+08:00

开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech www.v2ex.com 2026-04-28 12:17:24+08:00

开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech www.v2ex.com 2026-04-28 12:00:19+08:00

开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech www.v2ex.com 2026-04-28 11:40:44+08:00

[程序员] 开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech v2ex.com 2026-04-28 10:46:00+08:00

[程序员] 开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech v2ex.com 2026-04-28 09:41:14+08:00

[程序员] 开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech v2ex.com 2026-04-28 09:41:14+08:00

[程序员] 开发、测试、运维各用各的 AI,怎么避免把同一件事来回说好几遍?减少重复 token 消耗。

想问一下有没有实际在用的、不太重的方法或团队协作的 Coding Agent 方案,比如: 开发产出一种“给下游 AI 看”的简短上下文 或者一种跨角色共享的小文件(不是长篇设计文档) 或者聊天工具里某种引用机制 不指望一个工具解决所有问题,就想知道有没有人踩过这个坑、用了什么土

tech v2ex.com 2026-04-28 09:33:11+08:00

【抽奖】分享grok free

分享150个grok free,为了避免大家同时使用,采用抽奖方式,需要的佬友可以参与下 5个奖品,每个30个token,配合grok2api使用 抽奖主题: [150个grok free token 30*5] 奖品详情: [奖品1]:[150个grok free token

tech linux.do 2026-04-27 15:46:10+08:00

使用codex的时候发现会出现中文乱码的情况,各位有遇到这情况吗?有何方法能避免该情况?

如图所示 10 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-27 13:55:51+08:00

很郁闷啊,刚为了避免移动对蜂窝数据的TCP阻断研究好了naiveproxy,今天醒来一看发现阻断好像没了

前几天移动的蜂窝数据一直存在TCP阻断的情况,有以下特征: 仅对去程CMI的网络进行阻断,因为DMIT.EB依旧可以正常访问(双程CMIN2),HK回程CMIN2依旧被阻断 间歇性,但阻断时间远大于正常时间 看到别人说TCP协议只有naiveproxy可以正常使用(也就是还未被识

tech linux.do 2026-04-27 09:43:28+08:00

建议非管理不能把帖子移动到比楼主等级高的等级

近期刷L站发现有些帖子的等级会大于发帖人的等级,建议非管理不能把帖子等级调成比楼主高,避免有人看不见自己的帖子 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:06:37+08:00

如何避免ai幻觉

各位大佬,平常在使用ai的时候是如何避免ai幻觉的,比如在处理数据中会编造数据,撰写文本时会主动添加一些ai主观的一些内容 10 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 08:56:42+08:00

【开源】AgentMux 避免claude -p定时任务频繁429限流

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI 生成、润色内容部分已截图发出: 是 以上选择我承

tech linux.do 2026-04-25 11:06:37+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 10:16:47+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 08:27:09+08:00

[Codex] win11 + powershell 7, codex 给我 py 项目目录跑测试生成几百个 4 字节临时文件

这种如何避免啊,已经出现好多次,不知道如何约束。。。

tech v2ex.com 2026-04-25 08:27:09+08:00

如何避免 CC 瞎写/改代码 ?

看到社区有很多方案:OpenSpec、Superpowers、Trellis ,有没有佬友实战对比过?特别是在大型老项目上。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:14:16+08:00

大家小心说话,避免引起争议

看到很多帖都没了, 提醒一下,大家小心说话,避免引起争议 看到很多关于某个话题的主帖都被举报没了,尽量不要提到相关话题, 无论你是否有恶意,都会被有心人恶意曲解成有恶意,从而造成骂战,导致管理需要控管一下, 被删帖就算了,反正也不影响,被封禁可以私下找管理申诉而不是在运营板块发帖

tech linux.do 2026-04-24 20:12:19+08:00