最近 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第87页 - 钛刻科技 | TCTI.cn

最近 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第87页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2913 篇相关文章 · 第 87 / 146 页

[分享创造] 做了一个小工具,把 links 旅行视频里的地点整理到 3D 地球上

最近做了个小项目,太喜欢 links 的视频,用 AI Vibe Coding 把 YouTube 旅行摄影频道 @ linksphotograph 里出现过的地点整理出来,标到 3D 地球上。 地址: https://links-map.vercel.app GitHub: h

tech v2ex.com 2026-04-25 01:02:57+08:00

[分享创造] 做了一个小工具,把 links 旅行视频里的地点整理到 3D 地球上

最近做了个小项目,太喜欢 links 的视频,用 AI Vibe Coding 把 YouTube 旅行摄影频道 @ linksphotograph 里出现过的地点整理出来,标到 3D 地球上。 地址: https://links-map.vercel.app GitHub: h

tech v2ex.com 2026-04-25 01:02:57+08:00

定投小实验,普通人の养老金攻略?

分享一下最近开始做的一个小实验,因为一直有朋友问我到底怎么投资,而我不想把人盲目的引进股市,于是想要推荐定投,但又想到我自己也从来没尝试过DCA,仅仅是通过回测和他人的分享就进行推荐同样是一种盲目,所以我决定掏出真金白银来进行试验,挑选几种简单的方式,流派全都测一遍。 境内组出于

tech linux.do 2026-04-25 00:38:03+08:00

怎么又把牙套丢了

为什么我最近吃饭经常丢牙套啊,晚上准备睡觉想起来牙套好像在楼下吃饭没拿 19副带了10天丢了,20副带了10天丢了,我要被我自己气昏过去了! 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:24:38+08:00

粤语歌有押韵的说法吗

最近听到几首粤语歌,发现粤语歌作词的时候选字的读音好像有押韵的说法,是这样吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:21:41+08:00

[分享创造] EzRemove AI - Free Background Remover Online 2026

在做什么 最近上线了一个很聚焦的小工具站: 用 AI 把照片背景扣成透明 PNG ,面向证件照/人像、电商白底图、社媒头图和快速出稿场景。不想先造账号再试用,所以主线是 免登录即可上传并看预览 ,需要高清再付费下载。 站点(落地页与上传入口): EzRemove AI 在线去背景

tech v2ex.com 2026-04-24 23:57:41+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:54:14+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:47:32+08:00

Grok 最近一直抽风,想问一下各位的情况

这几天天天就这状态,有没有佬能正常用网页普号,哪里IP? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:42:47+08:00

下载Youtube视频浏览器插件推荐分享

以前都是用IDM下载油管视频。最近IDM用不了了。听身边留学生朋友推荐,有一款浏览器插件很不错。本人最近在学语言(刚过法语B2,在准备日语N2)。一般会下载一些外语播客,通勤的时候听。 这个插件在Github上是开源的,400多star。推荐给大家,希望对大家有帮助~ greas

tech linux.do 2026-04-24 23:29:08+08:00

KIRO相关问题

最近在搞kiro2api,发现一个事,不知道各位佬是不是这样,使用账号下最高只支持到sonnet模型,看了一下doc文档,免费用户貌似是有opus4.6,4.7只提供给IDE用户 8 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:24:36+08:00

open code与claude code实际差距有多大

之前一直在用claude code,最近开始用open code,但是都比较轻度,有没有佬都深度使用过的,这俩在实际项目中,使用同样的模型,差距到底有多大,只考虑cli的情况下 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 23:17:10+08:00

[分享创造] aisaysme.com 欢迎来说说你被 AI 评成了什么人设

最近做了个小东西,起因是某天突然想:我天天用 AI 干活,但从没问过它怎么看我这个"甲方"。 于是就让它说了。 流程很简单:给 AI 一段 prompt ,它读你们的历史对话,然后生成一份「吐槽报告」——你的 AI 人设、一句话总结、四个维度的点评,最后还有一

tech v2ex.com 2026-04-24 23:07:06+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:03:46+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 23:03:46+08:00

浏览器插件扩展 占用空间大

最近使用了 Bitwarden 密码管理器 的浏览器插件 ExtensionActivityEdge 占用空间大,分析这个Sqlite3文件 写入了 三千多万条日志 问AI 说 需要加 --disable-extension-activity-logging 这个参数 启动Edg

tech linux.do 2026-04-24 23:03:23+08:00

[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech v2ex.com 2026-04-24 22:48:43+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-24 22:48:43+08:00