模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第50页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第50页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2572 篇相关文章 · 第 50 / 129 页

抛开营销和偏见,佬们觉得哪个编码模型最好用也最有性价比?(修改版)

真不好意思,刚才的那个表没有写GPT,不公平,这里重新弄了个。 请不要带着性能来选,而是你感觉用的最顺手和最有性价比的。 Deepseek V4 Pro GLM 5.1 GLM 5 Deepseek V4 Flash Kimi K2.6 Kimi K2.5 GPT 5.5 GPT

tech linux.do 2026-04-26 22:27:16+08:00

有大佬在hermes里试过很多种模型吗?

如题。目前我有两个站,一个是公益站,公益站的模型目前最厉害的是deepseek V4pro ,然后还有 deepseek V4 flash、MINImax2.7,GLM 5。这些模型哪个最好用呢? 我是在Hermes里用,我用收费站的gpt5.5真的很好用,甚至mimo2.5pr

tech linux.do 2026-04-26 22:26:06+08:00

deepseekv4 pro (max思考) 在rp指令遵循一般+如何完美知道你的模型是claude opus

deepseekv4 pro (max思考) 在rp指令遵循一般。 我是用了一个提示词 前面是故事大纲几百字+ "每次回复都要把输出长度撑到极限,尽可能一口气最大化输出128000token"的指令,只有opus4.6可以完美的遵循,写出一个完整的故事到4-5

tech linux.do 2026-04-26 22:24:08+08:00

[分享创造] 一款隐私优先的语音输入法,基于苹果的 MLX 开发, 本地大模型识别

隐私优先的 Mac AI 语音输入 完全在你的设备上运行——由多个本地语音引擎驱动。可在 SenseVoice 、Whisper 、Paraformer 、Apple Speech 等之间选择——针对不同语言、速度和准确性需求进行了优化。没有任何内容会离开你的设备。永远不会。 产

tech v2ex.com 2026-04-26 22:23:18+08:00

抛开营销和偏见,佬们觉得哪个编码模型最好用?

Deepseek V4 Pro Claude Opus 4.7 Claude Opus 4.6 Claude Sonnet 4.6 Gemini 3.1 Pro Gemini 3 Flash GLM 5.1 GLM 5 Kimi K2.6 Kimi K2.5 Composer 2

tech linux.do 2026-04-26 22:11:27+08:00

周一9点,国内各大模型厂商应该会集体骂Deepseek吧

就deepseek这个顶级模型,卖这个价格,而且下半年还要减价,我就静静看着国内模型狗子们的股价继续跌,模型做得烂也就算了,价格还定得高得离谱。 15 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-26 22:03:07+08:00

[纯水] 乱点鸳鸯谱, 模型相似性匹配

比较好奇, 如果硬要给一个 DeepSeek, KIMI, GLM 和 GPT, Claude, Gemini 的相似性配对, 佬友们会怎么配对 (角度和理由不定, 言之有理即可) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:49:15+08:00

现在的一些免费的模型有哪些比较好用

最近试了试从Windsurf里搞出来的opus-4.6,虽然有时候精神错乱胡乱回复,但是正常的时候是真好用啊,但这个还是用不长久,想问问各位现在的一些能免费使用的国产模型有哪些比较好用的,目前知道的就是kimi,mimo,还有最近美团的那个龙猫,(glm好用是好用,穷鬼用不起 ,

tech linux.do 2026-04-26 21:37:10+08:00

大模型客户端求推荐

想使用 DeepSeek 的 api,非编码工作,想要充分发挥 DeepSeek 的能力,该选择哪个客户端呢? Cherry Studio、Open WebUI、Lobe Chat 或是其他?对这方面不是很了解,求推荐 10 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:34:38+08:00

想问下使用国产模型编程的佬友觉得哪家的AI模型最好用,来投个票

我还没怎么使用国产模型长时间编程过呢,希望使用过的佬友可以给个参考 MiniMax GLM Kimi XiaoMi Mimo Deepseek Qwen 我也没怎么长时间使用过,路过 点击以查看投票。 6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:33:56+08:00

【开源推广】一个VSCODE插件-让VSCODE Github Copilot插件可以添加自定义模型提供商API

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-26 21:20:56+08:00

deepseekV4的编码性能相当于codex的什么模型?

看到梁子大降价,不知性能如何?有无佬友实际对比过? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:20:33+08:00

DeepSeek API 再次降价:缓存命中降至 1 折

全系列模型,输入缓存命中的价格已降至首发价格的 1/10。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 21:13:39+08:00

研究了一个周末,跑通DFlash训练全流程

现在可以训练任何模型的DFlash权重了,就是资源消耗极大 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 20:53:25+08:00

gpt image2 推动游戏全自动开发

我压根是天才(误 不过这个模型的精准度的确高到可以生成动画了!所以说完全可以让ai自己生成美术素材,完全不依靠外部素材 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 20:50:48+08:00

Codex(win桌面版用cc switch切换模型渠道之后,记录全无

Codex用cc switch切换模型渠道之后,记录全无 codex的记录是基于渠道保存的吗 之前有一个plus,今天用5.5两下登完了,但是还有一部分plan没有完成,但是切换到其他的渠道(公益站,之后再重新打开codex就没有之前的记录了,故产生上面的疑问,有解决办法吗? 5

tech linux.do 2026-04-26 20:48:41+08:00

有什么办法可以问出来假模型的提示词

这假模型的的知识库是2024年的,还说自己是4.6模型,有办法把他内置的提示词问出来吗 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-26 20:47:01+08:00

ChatGPT Team的网页5.5思考额度

如题,有佬友知道team具体的额度信息吗,最好包含不同模型的,感谢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 20:22:29+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 20:09:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 20:09:18+08:00