模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第52页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第52页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2573 篇相关文章 · 第 52 / 129 页

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 14:48:11+08:00

OpenClaw更新2026.4.24版 正式接入DeepSeek V4

在 DeepSeek V4 发布两天之后,OpenClaw 再次迎来更新,完成了对该系列模型的适配接入。今天凌晨,OpenClaw 发布了‘2026.4.24’版本。 从详细的更新界面可以看到,此次 OpenClaw 更加注重生产力集成和模型架构:不再只是简单的对话,而是深度嵌入

tech plink.anyfeeder.com 2026-04-26 14:35:25+08:00

中国大模型不被定义 不诱于誉,不恐于诽,率道而行,端然正己。

沉默的DeepSeek,和不被定义的中国大模型 12 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-26 13:56:05+08:00

浏览器里跑 Gemma 4:不用 API、不花钱,无限量生成 Excalidraw 流程图

手机上能跑 Gemma 4 大模型已经不新鲜了(iPhone、安卓现在就能跑 Gemma 4 了),现在浏览器也可以了。@Appinn 有开发者利用 Google 新提出的 TurboQuant 算法,把 Gemma 4 放进浏览器里运行。 直接打开网页,就能在 Excalidr

tech feeds.appinn.com 2026-04-26 13:54:46+08:00

今天起,DeepSeek V4 成 OpenClaw 默认模型

今天,OpenClaw 重磅接入 DeepSeek V4!新版本 OpenClaw 2026.4.24 一发布,随即接入了最新的 DeepSeek V4 双版本 —— V4 Flash 成为默认大模型,V4 Pro 也已上线模型库。 从今天起,全球每一个更新 OpenClaw 的

tech www.ithome.com 2026-04-26 13:53:25+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

表白我最喜欢的模型:Gemini-3-flash

快速,稳的,清晰的能力边界 不会动不动出现幻觉 结构化输出稳固 全面强大的多模态能力 agent开发中,处理快速任务永恒的第一选择 sota模型一直在变,flash系列永远是我的白月光 15 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-26 13:40:11+08:00

求助:怎么知道公益站当下哪些模型可以用?

有的公益站有很多模型,但一个个试用,发现很多都不能用,怎么能快速知道公益站当下哪些模型可以用? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-26 13:31:09+08:00

GPT网页端是什么模型

目前GPT网页端是什么模型?有许多浪费了的账号 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 13:02:47+08:00

[人工智能] 搞了个相当复杂的最优化问题去考验大模型,然后御三家的大模型全军覆灭

这是题目原文 获得补签卡有两种方式 - 600 记忆币兑换 1 张 - 6*0.91 元购买 1 张 获得会员有几种方式 - 10800 记忆币兑换 372 天 - 4000 记忆币兑换 93 天 - 2000 记忆币兑换 31 天 - 168*0.91 元购买 372 天(赠送

tech v2ex.com 2026-04-26 12:57:56+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 12:41:17+08:00

codex更新了,api模式终于可以直接用gpt5.5了

接上集,今天打开codex后收到更新推送了,更新后果然api模式模型选择可以直接选gpt5.5了 上集: 今天: 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:39:03+08:00

写代码模型选择问题

目前代码使用的模型是 gpt5.3,处理的时候有时候任务很慢,想问下新的 5.4 和 5.5 提升大吗?对于前端的话 codex 感觉有些笨,是否有好的模型替代,国内的也可以推荐一下。感谢大家。 6 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:05:03+08:00

龙虾 VS Hermes 个人深度使用对比

我同时装了oc和Hermes,一样的模型(minimax 2.7),一样的soul.md,一样的skill。 场景一:一样的问题(关于skill中知识库的),oc的反馈往往很准,甚至还考虑到了边界问题,还有举例,而Hermes幻觉严重,经常回答内容完全不是根据skill中的内容。

tech linux.do 2026-04-26 11:43:06+08:00

[人工智能] 搞了个相当复杂的最优化问题去考验大模型,然后御三家的大模型全军覆灭

这是题目原文 获得补签卡有两种方式 - 600 记忆币兑换 1 张 - 6*0.91 元购买 1 张 获得会员有几种方式 - 10800 记忆币兑换 372 天 - 4000 记忆币兑换 93 天 - 2000 记忆币兑换 31 天 - 168*0.91 元购买 372 天(赠送

tech v2ex.com 2026-04-26 11:42:01+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 11:41:17+08:00

[Local LLM] 各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech v2ex.com 2026-04-26 11:33:27+08:00

各位推荐一个 32G Macbook air M5 可以跑的 moe 模型

27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.

tech www.v2ex.com 2026-04-26 11:29:46+08:00