to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第71页 - 钛刻科技 | TCTI.cn

to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第71页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2428 篇相关文章 · 第 71 / 122 页

在AI时代下,我看网上现在的风气好像是,后端学前端,前端学后端,产品兼UI,不懂编程的人也能依靠烧token做独立产品

感觉互联网在AI时代下更卷了,简直是大逃杀模式,前端学后端,后端学前端,产品兼ui,有些是基本全干。然后计算机又是每年高考都是热门专业,毕业生越来越多,岗位又是越来越少,技能要求越来越多。学历贬值也越来越快。 低学历,技术一般的从业人员不知道未来的路在哪里了,到处都在说转行也不知

tech linux.do 2026-04-25 13:57:15+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 13:36:37+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:36:22+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 13:03:41+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:03:16+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 12:58:37+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 12:52:52+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 12:39:09+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 12:24:35+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 12:24:35+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 12:03:05+08:00

oracle arm 机器 CPU 异常

24号oracle给 ARM 实例升级后发现1Panel页面 CPU 占用一直 100%, htop 查看也是,但是却没有发现占用 CPU的进程。系统不卡(CPU实际应该是空间的),newapi 接口无法正常调用,提示:503 Service Unavailable: syste

tech linux.do 2026-04-25 11:59:31+08:00

[分享发现] XChat 正式上架 App Store 了

有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。

tech v2ex.com 2026-04-25 11:51:02+08:00

[Apple] 苹果 App Store 国区充值可获额外 10% 奖励

tech v2ex.com 2026-04-25 11:48:33+08:00

mimo的token plan怀疑存在bug,Credits多算额度

昨天记录了一下用量,今天使用来生成看看用量,但是按照官网的说法 1token = 1 Credits ,不应该会用那么多Credits ,还是说有其他算法? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:47:45+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 11:46:59+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 11:39:08+08:00

国内的coding plan/token plan怎么选择呢,如何测算,作为成本评估呢

如标题所说的,大家有对比过国内coding plan吗,怎么测算的呢,只能在cursor这些编程工具中使用,怎么统计token用量,作为成本预算呢 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:21:55+08:00