模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第62页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第62页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2588 篇相关文章 · 第 62 / 130 页

有没有cap代理codex用图片2的佬

会不会封号啊用CAP里面的图片2模型,, 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 04:16:08+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00

看大家都在讨论gpt破限的事,突然想到外国第三方托管的开源模型,是不是就不存在各种安全限制?

例如在cc中调用opencode会员里的各类开源模型,是不是怎么折腾都行?还是说这些第三方托管商会自己加限制?有大佬试过么? 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 03:13:24+08:00

Codex cli 已经可以选择GPT 5.5模型

本来还想改 models.json的 codex --model gpt-5.5 的时候出更新提示了 更新之后就好了 @fedora:~/codexCLI$ codex --model gpt-5.5 Updating Codex via `npm install -g @ope

tech linux.do 2026-04-25 02:55:09+08:00

求助!更新claude code 2.1.119后使用非官方模型出错问题

如题,在更新cil到该版本后,使用非claude官方模型一直出现重连错误(我使用的是硅基流动,讯飞星辰,智谱等api),在聊了一两句话就会出现超时重试的提示,同api和key在opencode可以正常使用 无图抱歉(-人-) 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 02:44:59+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:39:55+08:00

续写用一句话吐槽各家模型/厂商的话,来看看各个模型的表现

看到一段很有趣的话和评论,然后尝试让各个模型进行了续写。 OpenAI: 我们还能把模型能力再抬上去一些 DeepSeek: 我们还能把模型价格再打下来一些 达里奥: 这东西太危险了,只有像我们这种极度重视安全、有顶级技术的大厂,才知道怎么控制它 Google: 用的人太多了,我

tech linux.do 2026-04-25 02:36:17+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 02:18:07+08:00

说真的,深夜后再看到Gemini语录真的非常难绷

写到一半真的绷不住,模型是qwen 3.5 plus(这就是为啥标的是qwen,白嫖的佬友的lite),看来是哈基米蒸多了 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 01:53:25+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 01:40:43+08:00

ModelScope魔搭现已支持调用DeepSeek V4

Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50

tech linux.do 2026-04-25 00:55:10+08:00

佬友们有没有什么“闪电般”快速的模型推荐

佬友们有没有什么“闪电般”快速的模型推荐,想做智能需求路由模型,所以意图理解能力要至少能用 9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:54:31+08:00

出大事了.GPT需要验证 KYC了.gpt-5.5模型用不得啊!!!

正常对话就触发了. 有多少佬友触发了? 正儿八经开发,没有任何破限.使用grok搜索直接触发 更新5.4不会触发. 5.5就触发了. 佬友们 感觉要丸辣 18 个帖子 - 15 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:33:22+08:00

sub2API 如何调用 images2 模型生图

求助 api 接口是啥,是通过api调用吗 ,没找到接口地址是撒 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:29:35+08:00

DeepSeek V4 应该搭配 Claude Code 还是 Codex 使用?

大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek

tech linux.do 2026-04-25 00:09:18+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00