模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第51页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第51页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2572 篇相关文章 · 第 51 / 129 页

[分享创造] 分享一个自用的 AI 平台 Yeero AI(支持多模型并行、对话分支、知识沉淀)

项目简介 我之前用 AI 的时候遇到几个挺烦的问题,就自己搞了个平台 Yeero AI ,用了快一个月感觉还不错,发出来给大家看看。 平时主要遇到这几个痛点: 多模型对比太麻烦 :每次我要在 ChatGPT 、Qwen 、Gemini 之间切来切去,真的很烦,还要一个个复制粘贴同

tech v2ex.com 2026-04-26 19:57:10+08:00

gpt web端的pro模型是不是没法在codex里用

这个pro模型感觉很强,动不动思考十几二十分钟 但是codex里面似乎没有这个模型吧,如果能用就好了 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-26 19:22:55+08:00

Claude code或其他,多agent协作。

请问下有没有一种大模型来实现方案,调用小模型来根据方案写代码,最后大模型来合并验收的工具? 比如 有一个任务,大模型分析代码和任务给出方案,然后切换到小模型根据方案实现代码,然后大模型最后检查,这样一个大任务可以分成好几个小人物,几个小模型一起做最后合并,而且可以提高速度,高级模

tech linux.do 2026-04-26 19:16:39+08:00

【hub_pro:一个强大的hub.linux.do站的增强工具,解决大部分hub站痛点】<channel一页全部显示,根据热门度排序,根据接口筛选,根据支持模型筛选,只查看free channel,显示channel所有可用模型>

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-26 18:44:29+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 18:30:30+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 18:30:30+08:00

OpenClaw 发布 2026.4.24 版:默认模型切换为 DeepSeek V4 Flash

、来源 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:14:10+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 18:05:43+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 17:48:07+08:00

话说Ds的V4Pro模型接不了openclaw对吧?

刚在openclaw配了下ds的V4Pro模型,直接跑不起来了 回复信息:LLM request failed: provider rejected the request schema or tool payload. 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 17:31:57+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 17:27:54+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 17:05:43+08:00

sub2api可以关闭日志里模型价格吗

为什么有的中转站使用日志里不限制模型价格呢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 16:38:23+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 16:33:08+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 16:28:27+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 16:05:43+08:00

ccswitch 配置codex自定义模型的问题

前两天用ccswitch配置了claude的自定义渠道,用的是自己搭建的newapi进行中转,使用的是OpenAI Chat Completions,之前是跑通了的 今天又报这个错误,想问问怎么解决,问题是什么 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:48:06+08:00

[慢讯] OpenClaw 发布 2026.4.24 版:默认模型切换为 🤖 DeepSeek V4 Flash

何意味 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:21:24+08:00

现在的生图模型仍然画不好低像素画

如题。即便强如GPT IMAGE 2,仍然无法做到保证一个画幅里只包含几百或几千个方形色块。似乎像素画早就被生图模型的进步方向忽略掉了。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:15:07+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 14:48:11+08:00