[分享创造] 分享一个自用的 AI 平台 YeeroAI(多模型并行 + Git 式对话分支 + 知识沉淀 + 后台推流 + 邀请有礼)
最近在用一个 AI 平台 YeeroAI ( yeero.ai ),功能做得还挺扎实,分享给可能有需要的朋友。 为什么不用 ChatGPT / Claude 直接聊 几个我自己遇到过的痛点: 多模型对比太麻烦 :想看 GPT 和 Claude 对同一个问题的回答,得手动切来切去,
并行 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 34 篇相关文章 · 第 1 / 2 页
最近在用一个 AI 平台 YeeroAI ( yeero.ai ),功能做得还挺扎实,分享给可能有需要的朋友。 为什么不用 ChatGPT / Claude 直接聊 几个我自己遇到过的痛点: 多模型对比太麻烦 :想看 GPT 和 Claude 对同一个问题的回答,得手动切来切去,
最近在用一个 AI 平台 YeeroAI ( yeero.ai ),功能做得还挺扎实,分享给可能有需要的朋友。 为什么不用 ChatGPT / Claude 直接聊 几个我自己遇到过的痛点: 多模型对比太麻烦 :想看 GPT 和 Claude 对同一个问题的回答,得手动切来切去,
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
最近在用一个 AI 平台 YeeroAI ( yeero.ai ),功能做得还挺扎实,分享给可能有需要的朋友。 为什么不用 ChatGPT / Claude 直接聊 几个我自己遇到过的痛点: 多模型对比太麻烦 :想看 GPT 和 Claude 对同一个问题的回答,得手动切来切去,
IT之家 5 月 1 日消息,央视新闻今天对高速公路“手机 +”无卡通行模式进行解读,相应模式依托手机提供服务、以车牌识别技术记录车辆信息, 用户只要提前通过手机注册,就可以无感通行 ,可减少车辆通行时间,提高出行效率。 央视表示,当前江苏“茉莉畅行”、重庆“高速码上行”等地方平
最近在用codex、cc + vscode并行开发多个任务。但是在某个项目窗口把任务委托给agent后,我不知道该切到哪个项目窗口。原因是我不知道哪个项目的agent已经完成我布置的任务。我发现codex app的设计理念能满足我的需求,但是我用的windows +wsl开发,c
目前在并行开发3个项目,然后手头上蹲了3个公益站。我希望能够做到我做项目1的时候用公益站1,项目2对应2,3同理,可以怎么做? 为什么要这样做: 1.最大限度利用缓存 2.claudeCode确实好用,不想用其他cli 目前有思路 cc switch 这个只能实时切换一个 部署一
我目前的情况是 多工具并行 (Claude Code + Codex + Trae)-> 每个工具都不知道另一个干了什么 多项目并行 (3-4个前端项目)-> 上下文在项目之间、会话之间频繁丢失 AI不规划直接写 → 代码可读性差、不写注释、复杂任务越改越乱 小任务过
IT之家 4 月 30 日消息,苹果公司携手加州大学圣迭戈分校团队,在新版论文《LaDiR:潜在扩散增强 LLM 文本推理》中提出新框架, 让大语言模型(LLM)在回答前并行探索多条推理路径,再用自回归方式输出提高结果质量。 IT之家援引博文介绍,该框架并非新模型,而是叠加在现有
给远程 VibeCoding 工具做了两个新功能:多配置并行启动 Claude Code / Codex + IM 远程预览 大家好,之前在 V2EX 发过自己在制作的工具 VibeAround ,收到了一些宝贵的反馈意见。加上自己日常使用 coding agent 的过程中,也
自己起了个多 agent 批量处理 issue ,跑起来发现一个很诡异的问题:加了并行之后速度几乎没变,但 token 消耗暴涨,几分钟烧光 codex 5 小时限额。 仔细研究才发现原因:每开一个新 agent 就要重新理解一遍整个 codebase 和项目背景。十个 agen
自己起了个多 agent 批量处理 issue ,跑起来发现一个很诡异的问题:加了并行之后速度几乎没变,但 token 消耗暴涨,几分钟烧光 codex 5 小时限额。 仔细研究才发现原因:每开一个新 agent 就要重新理解一遍整个 codebase 和项目背景。十个 agen
自己起了个多 agent 批量处理 issue ,跑起来发现一个很诡异的问题:加了并行之后速度几乎没变,但 token 消耗暴涨,几分钟烧光 codex 5 小时限额。 仔细研究才发现原因:每开一个新 agent 就要重新理解一遍整个 codebase 和项目背景。十个 agen
一边并行跑3个项目,一边把app ui重构一遍。 最新冲刺进度:只能说claude design目前绝对TO级别的前端存在,额度可不能浪费了 13 个帖子 - 8 位参与者 阅读完整话题
项目简介 我之前用 AI 的时候遇到几个挺烦的问题,就自己搞了个平台 Yeero AI ,用了快一个月感觉还不错,发出来给大家看看。 平时主要遇到这几个痛点: 多模型对比太麻烦 :每次我要在 ChatGPT 、Qwen 、Gemini 之间切来切去,真的很烦,还要一个个复制粘贴同
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
这随便蹬一下,100多刀没了。还没有开fast模式。牛逼是真牛逼。感觉一天要是2-3任务并行,起码需要300刀? 1 个帖子 - 1 位参与者 阅读完整话题
4月23日,德国汽车制造商保时捷宣布,将于今年夏末启动纯电版Cayenne Coupe的销售,这一最新动作再次表明,这家车企依然看好电动车市场需求。这款纯电Cayenne Coupe虽名为“轿跑”,但实际上仍采用四门设计。 按照保时捷的产品规划,新车将在今年晚些时候与另外几款纯电
只有hermes在正常使用glm 的pro套餐,没有并行在其他claude中使用,然后就提示 【API call failed after 3 retries: HTTP 200: 您的账户当前使用模式不符合公平使用策略,请求频率已受到限制。详情请参阅《协议与条款-订阅服务协议》
IT之家 4 月 21 日消息,月之暗面昨天发布并开源了其最新模型 Kimi K2.6,该模型在代码编写、长程任务执行及 Agent 集群能力方面实现了全面升级。 即日起,所有用户均可通过官网(IT之家附地址: kimi.com )、最新版 Kimi 应用、Kimi API 以及