一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第68页 - 钛刻科技 | TCTI.cn

一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第68页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2214 篇相关文章 · 第 68 / 111 页

ai想论文创新点怎么样

最近打算弄一篇sci四区的论文 用ai来想创新点效果怎么样呢?想出来的idea能发表一篇嘛 问一下各位佬 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:28:37+08:00

想自己搭建一个小鸡

大家好!我想自己搭建一个小鸡,刚入行,有没有大佬可以教我一下?鄙人不胜感激 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:26:28+08:00

现在有佬在肇庆的某个科创比赛现场吗?

现在有佬在肇庆的某个科创比赛现场吗?可以认识一下 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 21:16:45+08:00

[分享发现] AI 辅助英语学习,无推广,讨论一下

Vibe Coding 了一个 App ,主要功能是,搜索数据库中的字幕,返回字幕结果,点击结果可以从字幕所在的地方开始播放视频。 我的学习流程是:下载影视资源 → 下载字幕 → 找 Gemini 翻译成双语字幕(机翻偏向直译容易理解) → 找 Gemini 分析并找出短语搭配和

tech v2ex.com 2026-04-24 21:12:31+08:00

[DeepSeek] DeepSeek 4 好贵啊,比 3.2 贵 12 倍。。。

DeepSeek 4 上了,说是用来编程的,但是这个价格。。。 有没有富哥来分享一下体验感? https://imgur.com/a/z62cUo0

tech v2ex.com 2026-04-24 20:44:43+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:35:40+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 20:35:40+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 20:35:40+08:00

codex 遇到了灵异事件。

一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit

tech www.v2ex.com 2026-04-24 20:34:44+08:00

[分享发现] AI 辅助英语学习,无推广,讨论一下

Vibe Coding 了一个 App ,主要功能是,搜索数据库中的字幕,返回字幕结果,点击结果可以从字幕所在的地方开始播放视频。 我的学习流程是:下载影视资源 → 下载字幕 → 找 Gemini 翻译成双语字幕(机翻偏向直译容易理解) → 找 Gemini 分析并找出短语搭配和

tech v2ex.com 2026-04-24 20:30:39+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:26:48+08:00

[程序员] DeepSeek 4 好贵啊,比 3.2 贵 12 倍。。。

DeepSeek 4 上了,说是用来编程的,但是这个价格。。。 有没有富哥来分享一下体验感? https://imgur.com/a/z62cUo0

tech v2ex.com 2026-04-24 20:15:19+08:00

大家小心说话,避免引起争议

看到很多帖都没了, 提醒一下,大家小心说话,避免引起争议 看到很多关于某个话题的主帖都被举报没了,尽量不要提到相关话题, 无论你是否有恶意,都会被有心人恶意曲解成有恶意,从而造成骂战,导致管理需要控管一下, 被删帖就算了,反正也不影响,被封禁可以私下找管理申诉而不是在运营板块发帖

tech linux.do 2026-04-24 20:12:19+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:11:08+08:00

deepseek-v4-pro + Harness 实战效果

【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了

tech linux.do 2026-04-24 20:07:25+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:06:39+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 19:59:44+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 19:41:32+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 19:41:32+08:00

codex 遇到了灵异事件。

一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit

tech www.v2ex.com 2026-04-24 19:34:44+08:00