技术 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn

技术 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 614 篇相关文章 · 第 11 / 31 页

排版的艺术:一条很长很长的路

Haku – 26 Apr 26 排版的艺术:一条很长很长的路 | Haku 排版是门技术活,这不用多说。 [!IMPORTANT] 观前提示 我在我的博客里设计了一些排版,在 L 站展示不出来。 本文中为了展示大量的、或好或坏的排版,插入了很多图片。尽管现在的浏览器会聪明地使用

tech linux.do 2026-04-26 17:21:29+08:00

DeepSeek V4 非专业解读

从 DeepSeek V4 个人技术前瞻 继续讨论: 终于经过望眼欲穿的等待,DeepSeek-V4千呼万唤始出来,发布以后,回看 此前的前瞻 ,还是有些出入,最期待的也最需要修正的部分是对Engram的预期。从V4技术报告来看,也许笔者的预期过于乐观,在这一代中暂时没有条件落地

tech linux.do 2026-04-26 16:07:33+08:00

求助佬们,脱发CGF生长因子有效果吗?想去试一试

有没有佬友打过的,查了是抽血提取生长因子打进去头皮,最近这几年才在脱发领域的技术普及的技术~ 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 16:05:12+08:00

GT 系列制作人山内一典:中国在电动汽车技术上非常先进,未来可能收录更多中国电车

4 月 26 日下午消息,2026 北京车展期间,小米汽车首款 Vision Gran Turismo 概念车型在国内首次亮相。小米汽车工业设计总经理兼集团设计委副主席李田原、GT 系列制作人山内一典与媒体对话,详解了双方的合作历程。 谈及邀约小米加入 GT 系列的初衷,山内一典

tech www.ithome.com 2026-04-26 14:01:24+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

[分享创造] 我做了一个 iOS 上的 Linux x86 容器

技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1

tech v2ex.com 2026-04-26 12:44:54+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 12:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 11:41:17+08:00

小米技术:截至 2025 年底,小米集团全球授权专利数已超 4.5 万项

IT之家 4 月 26 日消息,今天是 2026 年世界知识产权日。小米技术官方微博分享了小米的技术创新与知识产权成果: 截至 2025 年底,小米集团全球授权专利数已超 4.5 万项 。 小米技术表示,今天,AI 正成为放大创新的核心引擎,全面融入小米“人车家全生态”,推动产品

tech www.ithome.com 2026-04-26 10:42:50+08:00

中国团队研发光催化技术,实现聚酯塑料和二氧化硫变废为宝

IT之家 4 月 26 日消息,IT之家从中国科学院理化技术研究所官方微信公众号获悉,该所科研团队最近在废弃塑料高值化利用方面取得新突破,通过他们最新研发的光催化技术,实现废弃聚酯 (PET) 塑料和工业废气二氧化硫变废为宝,转化为可广泛应用的有机硫化合物。 这项光催化领域重要研

tech www.ithome.com 2026-04-26 10:22:37+08:00

融合活体脑细胞与电子技术,新型生物计算机可完成模式识别

IT之家 4 月 26 日消息,普林斯顿大学的研究人员研发出一种三维神经网络器件,融合了活体脑细胞与先进嵌入式电子技术。据其新闻稿介绍,这款三维生物电子计算机通过计算技术实现了模式识别功能。 简单来说,这项研究实现了活体脑细胞脱离大脑,借助嵌入式电子设备完成计算任务。这并非科学家

tech www.ithome.com 2026-04-26 10:09:45+08:00

[分享创造] 我做了一个 iOS 上的 Linux x86 容器

技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1

tech v2ex.com 2026-04-26 09:00:35+08:00

[分享创造] 我做了一个 iOS 上的 Linux x86 容器

技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1

tech v2ex.com 2026-04-26 07:33:10+08:00

再来发个自己的音乐w)

坏了,怎么不能在水区用原创和作品集了w 好久没发帖了,就找个原因发个帖子w 虽然技术还是照样烂就对了w 照样不会写结尾(Ovo 备用链接: Soundcloud Youtube 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 07:15:19+08:00

[分享创造] 我做了一个 iOS 上的 Linux x86 容器

技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1

tech v2ex.com 2026-04-26 06:40:22+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 04:07:34+08:00