排版的艺术:一条很长很长的路
Haku – 26 Apr 26 排版的艺术:一条很长很长的路 | Haku 排版是门技术活,这不用多说。 [!IMPORTANT] 观前提示 我在我的博客里设计了一些排版,在 L 站展示不出来。 本文中为了展示大量的、或好或坏的排版,插入了很多图片。尽管现在的浏览器会聪明地使用
技术 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 614 篇相关文章 · 第 11 / 31 页
Haku – 26 Apr 26 排版的艺术:一条很长很长的路 | Haku 排版是门技术活,这不用多说。 [!IMPORTANT] 观前提示 我在我的博客里设计了一些排版,在 L 站展示不出来。 本文中为了展示大量的、或好或坏的排版,插入了很多图片。尽管现在的浏览器会聪明地使用
从 DeepSeek V4 个人技术前瞻 继续讨论: 终于经过望眼欲穿的等待,DeepSeek-V4千呼万唤始出来,发布以后,回看 此前的前瞻 ,还是有些出入,最期待的也最需要修正的部分是对Engram的预期。从V4技术报告来看,也许笔者的预期过于乐观,在这一代中暂时没有条件落地
有没有佬友打过的,查了是抽血提取生长因子打进去头皮,最近这几年才在脱发领域的技术普及的技术~ 3 个帖子 - 3 位参与者 阅读完整话题
4 月 26 日下午消息,2026 北京车展期间,小米汽车首款 Vision Gran Turismo 概念车型在国内首次亮相。小米汽车工业设计总经理兼集团设计委副主席李田原、GT 系列制作人山内一典与媒体对话,详解了双方的合作历程。 谈及邀约小米加入 GT 系列的初衷,山内一典
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
IT之家 4 月 26 日消息,今天是 2026 年世界知识产权日。小米技术官方微博分享了小米的技术创新与知识产权成果: 截至 2025 年底,小米集团全球授权专利数已超 4.5 万项 。 小米技术表示,今天,AI 正成为放大创新的核心引擎,全面融入小米“人车家全生态”,推动产品
IT之家 4 月 26 日消息,IT之家从中国科学院理化技术研究所官方微信公众号获悉,该所科研团队最近在废弃塑料高值化利用方面取得新突破,通过他们最新研发的光催化技术,实现废弃聚酯 (PET) 塑料和工业废气二氧化硫变废为宝,转化为可广泛应用的有机硫化合物。 这项光催化领域重要研
IT之家 4 月 26 日消息,普林斯顿大学的研究人员研发出一种三维神经网络器件,融合了活体脑细胞与先进嵌入式电子技术。据其新闻稿介绍,这款三维生物电子计算机通过计算技术实现了模式识别功能。 简单来说,这项研究实现了活体脑细胞脱离大脑,借助嵌入式电子设备完成计算任务。这并非科学家
技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1
技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1
坏了,怎么不能在水区用原创和作品集了w 好久没发帖了,就找个原因发个帖子w 虽然技术还是照样烂就对了w 照样不会写结尾(Ovo 备用链接: Soundcloud Youtube 3 个帖子 - 3 位参与者 阅读完整话题
技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一