工具 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第30页 - 钛刻科技 | TCTI.cn

工具 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第30页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1146 篇相关文章 · 第 30 / 58 页

关于影视短剧创作工具的开发历程以及1.0Docker版本的成功发布!

今天终于把影视短剧创作平台的1.0版本(Docker本地包)完成并推送到Github上面去了,算是小小的一个里程碑,所以想记录一下,有点啰嗦。Vibe Coding的应用,大佬们别笑话! 去年下半年因为爱好接触到了动漫视频制作,也因为一时的冲动,怒冲了一年的可灵黑金会员,但当时做

tech linux.do 2026-04-25 20:57:00+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

OpenCode GO 已上线 deepseek v4

5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。

tech www.v2ex.com 2026-04-25 20:28:26+08:00

[分享创造] 做了一个跨境电商 AI 工具的极简导航站,专门标注了哪些国内能用,求各位老哥拍砖

潜水好久,第 2 次在 V2 发创造帖,有点紧张。 事情起因是去年底开始做跨境电商,作为新手踩了太多工具的坑: 看了一堆“必备工具”推荐文章,收藏夹塞爆,真要用的时候不知道先点哪个 更崩溃的是,很多工具在国内打不开,或者打开慢到怀疑人生,找平替又得重新搜 有些工具年费大几百刀,买

tech v2ex.com 2026-04-25 20:20:46+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:20:13+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:06:01+08:00

🍉西瓜备份 – iPhone 相册自动备份工具:可备份至 NAS、外置硬盘、WebDAV、SMB[限免至4.30]

如果你不太想把照片放在 iCloud 中,那其实还有一种更“本地化”的方式,就是放在外置硬盘、NAS、支持 WebDAV 的网盘,甚至通过 SMB 备份直接到电脑中。@Appinn 西瓜备份就是专门干这件事的,目前正在限免,截止 2026年4月30日。 来自发现频道,开发者自荐:

tech feeds.appinn.com 2026-04-25 19:59:45+08:00

OpenCode GO 已上线 deepseek v4

5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。

tech www.v2ex.com 2026-04-25 19:28:26+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 19:04:06+08:00

兄弟们,DS4最适合哪个CLI?

测试了一下Claude code,配合hello2cc,工具调用有点拉胯,经常不成功,然后自己就退出任务了,也不尝试。 大家有何妙招?opencode体验咋样呀~ 7 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-25 18:50:50+08:00

OpenCode GO 已上线 deepseek v4

5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。

tech www.v2ex.com 2026-04-25 18:28:26+08:00

想整个中转站/公益站,大佬们都用的哪里的服务器?

现在想稳定使用一个优秀的工具太难了,自己想整一个公益站或者中转站,有服务器/域名推荐的之类的吗? 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 17:49:13+08:00

OpenCode GO 已上线 deepseek v4

5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。

tech www.v2ex.com 2026-04-25 17:28:26+08:00

Windows 版本绿色版的 Claude Desktop客户端的中文 (汉化)工具

在 mac版本claude desktop汉化 的基础上弄了个简单的 win 客户端的 claude Desktop 汉化脚本工具.(用codex和chatgpt 5.5模型做的) github 地址: GitHub - FOMO-RUN/CC-desktop-zh-cn-WIN

tech linux.do 2026-04-25 17:16:10+08:00

【开源自荐】自己开发了一个便于管理/下载/整理多个ai ide的skill管理工具,求各位大佬指点~

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-25 17:13:38+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 17:04:33+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 17:04:33+08:00