cc创建Agent后不跟踪,直接后台运行了?
用的Trellis + v4-pro,为啥不同步等待Agent的输出啊,直接后台运行了 1 个帖子 - 1 位参与者 阅读完整话题
Gen - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第29页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1157 篇相关文章 · 第 29 / 58 页
用的Trellis + v4-pro,为啥不同步等待Agent的输出啊,直接后台运行了 1 个帖子 - 1 位参与者 阅读完整话题
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
目前是一个已有的后台管理系统 主要是表单类,然后需要根据现在新的ui图进行样式重构,ui图我放在Figma然后接入的Figma的mcp但是尝试用了coplot以及codex感觉还原度都不是很好,想问问各位佬友有没有什么好的方案 6 个帖子 - 3 位参与者 阅读完整话题
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
本人是某大学的PhD,研究方向是生物信息大模型、生物信息Agent、AI蛋白,然后各类Vibe Coding用的炉火纯青,也有一些还不错的产出。各位觉着在L站开个很小的科研板块如何呢?就是专门用来交流讨论,不以诞生idea为主,更多的是帮助一些在校学生或者在职工作人员从底层了解A
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
各位佬友好,我最近在思考一个多智能体协作的问题 最近我在用Claude来写代码,Codex来Review,有时候还会哈基米写前端 看起来互不冲突,但是Review的模型,在review完之后,上下文都缓存好,直接让他改代码就会更方便,然后越搞就越冲突。。。之前用过一个叫蜂巢的项目
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
最近我给自己的新产品「云雀通」Larktun 做了一个文档网站。源码放在 GitHub 上,公开访问,日常更新也很简单:我在本地电脑或笔记本上改文档,确认没有问题后提交到 GitHub。 问题出在「部署」这一步。 之前我一直是手动发布。倒不是不想自动化,而是生产服务器配置比较低,
codex工程化能力真的有问题 1.subagent每次派发都要重新链接一圈MCP,浪费流量+token+时间,并且一直有个BUG没修复,一旦某个MCP超时,他就会一直重连,一直到内存爆炸。 2.subagent派发出去后管生不管养,任务已经结束,但是subagent不会自动关闭
https://www.axios.com/2026/04/24/catholics-pope-vatican-artificial-intelligence 4 个帖子 - 3 位参与者 阅读完整话题
最近我在用opencode的oh-my-openagent插件,按照它的默认配置跑了下,效果对我来说简直好的离谱。 我大概花了半小时和 Sisyphus 讲完需求和确定好方案以后,它就开始召唤多个Agent帮我实现,一顿操作,大概半小时就帮我搞定了之前要开发一天的工作量(质量一致
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没
具体案例: V2EX Safe Reading Helper 5.3.0 ,一个油猴脚本,核心逻辑不复杂,但 530 行里能清楚看到几层叠加痕迹: topic 来源从 API 一路加到 /recent 、节点页、ID 逐个扫描——每次拿不到帖子就加一个 fallback ,互相没