[分享创造] 分享一个自用的 AI 平台 Yeero AI(支持多模型并行、对话分支、知识沉淀)
项目简介 我之前用 AI 的时候遇到几个挺烦的问题,就自己搞了个平台 Yeero AI ,用了快一个月感觉还不错,发出来给大家看看。 平时主要遇到这几个痛点: 多模型对比太麻烦 :每次我要在 ChatGPT 、Qwen 、Gemini 之间切来切去,真的很烦,还要一个个复制粘贴同
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第51页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2572 篇相关文章 · 第 51 / 129 页
项目简介 我之前用 AI 的时候遇到几个挺烦的问题,就自己搞了个平台 Yeero AI ,用了快一个月感觉还不错,发出来给大家看看。 平时主要遇到这几个痛点: 多模型对比太麻烦 :每次我要在 ChatGPT 、Qwen 、Gemini 之间切来切去,真的很烦,还要一个个复制粘贴同
这个pro模型感觉很强,动不动思考十几二十分钟 但是codex里面似乎没有这个模型吧,如果能用就好了 5 个帖子 - 4 位参与者 阅读完整话题
请问下有没有一种大模型来实现方案,调用小模型来根据方案写代码,最后大模型来合并验收的工具? 比如 有一个任务,大模型分析代码和任务给出方案,然后切换到小模型根据方案实现代码,然后大模型最后检查,这样一个大任务可以分成好几个小人物,几个小模型一起做最后合并,而且可以提高速度,高级模
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
、来源 2 个帖子 - 2 位参与者 阅读完整话题
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
刚在openclaw配了下ds的V4Pro模型,直接跑不起来了 回复信息:LLM request failed: provider rejected the request schema or tool payload. 3 个帖子 - 2 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
为什么有的中转站使用日志里不限制模型价格呢 1 个帖子 - 1 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
前两天用ccswitch配置了claude的自定义渠道,用的是自己搭建的newapi进行中转,使用的是OpenAI Chat Completions,之前是跑通了的 今天又报这个错误,想问问怎么解决,问题是什么 1 个帖子 - 1 位参与者 阅读完整话题
何意味 3 个帖子 - 3 位参与者 阅读完整话题
如题。即便强如GPT IMAGE 2,仍然无法做到保证一个画幅里只包含几百或几千个方形色块。似乎像素画早就被生图模型的进步方向忽略掉了。 1 个帖子 - 1 位参与者 阅读完整话题
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.