一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第69页 - 钛刻科技 | TCTI.cn

一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第69页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2223 篇相关文章 · 第 69 / 112 页

[程序员] DeepSeek 4 好贵啊,比 3.2 贵 12 倍。。。

DeepSeek 4 上了,说是用来编程的,但是这个价格。。。 有没有富哥来分享一下体验感? https://imgur.com/a/z62cUo0

tech v2ex.com 2026-04-24 20:15:19+08:00

大家小心说话,避免引起争议

看到很多帖都没了, 提醒一下,大家小心说话,避免引起争议 看到很多关于某个话题的主帖都被举报没了,尽量不要提到相关话题, 无论你是否有恶意,都会被有心人恶意曲解成有恶意,从而造成骂战,导致管理需要控管一下, 被删帖就算了,反正也不影响,被封禁可以私下找管理申诉而不是在运营板块发帖

tech linux.do 2026-04-24 20:12:19+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:11:08+08:00

deepseek-v4-pro + Harness 实战效果

【长期贴】开个帖子,分享一下我自己是如何做harness【已更新完成,等待交作业,后续再有新想法再补充】 开发调优 据网上传,目前Anthropic的所有产品均为harness模式,不过最近他们推了一个harness产品,原本把我吓了一跳,但实质一看,并不是干货,多少有点恶心人了

tech linux.do 2026-04-24 20:07:25+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 20:06:39+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 19:59:44+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 19:41:32+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 19:41:32+08:00

codex 遇到了灵异事件。

一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit

tech www.v2ex.com 2026-04-24 19:34:44+08:00

codex 遇到了灵异事件。

一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。 今天升级了一下 codex 。 功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽 然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit

tech www.v2ex.com 2026-04-24 19:34:44+08:00

询问:今天deepseek v4 出了,有使用的佬发表一下真实感受吗

今天看到了Deepseek v4,感觉挺震撼 天天饱受A/的打压(我是真用不起了) 想着咱自家的模型,好用我就进行使用了,自费也行,支持下国产 26 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-24 19:28:43+08:00

DeepSeek 4 好贵啊,比 3.2 贵 12 倍。。。

DeepSeek 4 上了,说是用来编程的,但是这个价格。。。 有没有富哥来分享一下体验感? https://imgur.com/a/z62cUo0

tech www.v2ex.com 2026-04-24 19:01:19+08:00

Vibe coding 之后, 线上出了几个问题, 老板要求"每一行代码都要调试到”

想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。

tech www.v2ex.com 2026-04-24 18:52:56+08:00

猜测一下google之后的行动?

推出 Gemini 3.2/3.5 Pro,震撼世界 推出 Nano Banana 2 Pro/3,震撼世界 增加 Gemini 免费配额,谷善再现锋芒 增加反重力配额,远离请求失败 骗你的,下个月啥都没有 点击以查看投票。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:51:02+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 18:48:29+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 18:48:29+08:00

[程序员] DeepSeek 4 好贵啊,比 3.2 贵 12 倍。。。

DeepSeek 4 上了,说是用来编程的,但是这个价格。。。 有没有富哥来分享一下体验感? https://imgur.com/a/z62cUo0

tech v2ex.com 2026-04-24 18:45:26+08:00

简单对比了一下gpt-5.5和dsv4-pro审美

叠甲,纯业余,纯兴趣测试 提示词 (点击了解更多详细信息) 用的植树节主题 gpt-5.5 deepseek-v4-pro 开销 (点击了解更多详细信息) 差距仍然存在,还需努力 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:42:03+08:00

有没有佬推荐一下coding方案

需求: 1.主要想用claude opus4.6或4.7 gpt5.4或5.5 2.一般不会连着用好几天,有时候用的多有时候用的少 3.主要偏向用IDE,不太习惯CLI 现在的情况: 1.copilot pro到期了,想用opus的话,pro+得39刀,而且现在opus4.7是7

tech linux.do 2026-04-24 18:30:38+08:00

想学习一下各位佬的Vibecoding焚绝

最近一直的研究vibecoding,但是到后期上下文长了,感觉写起来就很吃力,各位佬可以分享一下自己vibecoding的思路或者流程吗?刚开始是如何设计前端页面的?另外各位佬们有什么好用skill推荐么? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:28:57+08:00