模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2586 篇相关文章 · 第 61 / 130 页

用cpa调用image模型提示不支持的格式 这个目前无解吗

API Error: 503 {“error”:{“message”:“model gpt-image-2 is only supported on /v1/images/generations and /v1/images/edits”,“type”:“server_error

tech linux.do 2026-04-25 10:37:38+08:00

佬友们有使用deepseek-v4模型吗?感觉如何?

这两天ai资讯有点多,openai和幻方都有发布新模型,有佬友测了测v4吗?用来干活感觉如何? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:18:06+08:00

Claude 使用gpt5.5模型

Ai coding 这么久以来心里总有个疑问,Claude 使用gpt的模型对比使用自家oups的模型是会有工具对模型适配或者模型对工具的适配吗?反之也是一样的问题,L站得佬辛苦答疑一波 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:15:22+08:00

如何用newapi调用claude模型

之前注册的一个佬的公益站,上架了claude模型。我想使用codex配置api直接调用公益站里的claude模型,这样可以实现吗,配置文件该怎么写。神通广大的L友们,求解答 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:59:39+08:00

最近刷到很多 AI 换身视频,是怎么做的?

不同于以往的换脸,是整个人物的更换。 这是怎么做到的?用什么模型、什么工具? 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:37:49+08:00

百度有没有什么共享吗?

现在AI大模型发展这么快,各种新名词冒出来,简直是大爆炸,突然想讨论,百度做了什么共享呢? 题外话-最近刚入坑Vibe Coding后,感觉回不去了。已经刷新我对AI编程的看法,现在GLM 的Code Plan Lite老友借我的,但是不够用,有什么推荐嘛。 1 个帖子 - 1

tech linux.do 2026-04-25 09:31:24+08:00

我的开源项目,欢迎大家使用和批评,本地无字典字符型模型训练架构代码完全开源,可形成语义结构

欢迎批评,也是 vibe coding 的产物,我是在尝试学习数学和物理相关理论的时候结合编码学的一些自己的看法在做实验,当然实验内容大部分也是 vibe coding 的产物,现有基准是这个模型在本地学习 fineweb 数据集,架构没有词典层,只有字符学习和相关纯数学架构和编

tech www.v2ex.com 2026-04-25 09:17:46+08:00

大家coding都有哪些白嫖的大模型api,感觉确实免费就是最贵的

大家coding都有哪些白嫖的大模型api,感觉确实免费就是最贵的 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:51:45+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 08:39:55+08:00

DeepSeek V4 Flash是最强小模型吗??

主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:35:59+08:00

佬友们,有没有什么办法可以判断中转站模型真假?

我需要claude来帮我写代码,但是官方的实在是太贵了,根本负担不起,所以想找一些中转站来凑合着用,有什么办法判断中转站的claude真假吗?佬友们,可以给我推荐点claude渠道吗,谢谢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:21:02+08:00

咨询各位老佬们 cursor

想问下各位大哥使用 cursor 如何自定义模型呢 是否支持中转站呢? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 08:09:44+08:00

gpt模型放进Claude Code 2.1.119的缓存问题

通过cc-switch 3.14.1 把gpt模型放进Claude Code 2.1.119的缓存全部丢失,每轮对话都只有系统提示词在缓存里(约16k~20k) 导致我一小时被烧掉两百刀gpt。太离谱了。 回退到2.1.100版本的claude code则恢复缓存。 该版本ccs

tech linux.do 2026-04-25 07:01:07+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 06:39:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 05:39:55+08:00

有没有cap代理codex用图片2的佬

会不会封号啊用CAP里面的图片2模型,, 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 04:16:08+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-25 03:39:55+08:00