to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第59页 - 钛刻科技 | TCTI.cn

to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第59页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2382 篇相关文章 · 第 59 / 120 页

为了买到便宜靠谱的 Token,少被割韭菜,我做了个比价的网站

最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几

tech www.v2ex.com 2026-04-26 13:59:22+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 13:41:17+08:00

[独立开发者 👨‍💻] 我做了一个独立开发立项调查流水线:从 App Store 差评到可开发 Spec,解决了做什么的问题

最近整理了一套独立开发立项调查流程,主要想解决一个问题: 一个 App / SaaS / 小工具,在真正开工前,到底值不值得做? 我的流程大概是: 看需求信号:App Store / Reddit / HN / 社区讨论 看竞品:评分、评论数、更新频率、定价方式 看付费证据:有没

tech v2ex.com 2026-04-26 13:39:25+08:00

[OpenAI] chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech v2ex.com 2026-04-26 13:34:07+08:00

SpaceX 收购 Cursor 后应该叫 XCode 还是 CodeX :distorted_face:

突然刷到的一个很好玩的话题 SpaceX 收购 Cursor 后应该叫 XCode 还是 CodeX ? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 13:30:46+08:00

[Claude] 每天 800 美金 token 搓了几个小产品

20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数

tech v2ex.com 2026-04-26 13:25:44+08:00

[Claude] 每天 800 美金 token 搓了几个小产品

20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数

tech v2ex.com 2026-04-26 13:25:44+08:00

每天 800 美金 token 搓了几个小产品

20x 套餐这样蹬会不会用太猛了…… 搓了几个小产品: 1 、加密/美股,组合+跟单+API ,不敢上线,自己玩 2 、A 股,量化实验室( ai 写的介绍:Copilot"四合一研究终端:用 AkShare 延迟数据 + 私有 JupyterLab 沙盒写策略,跑参数

tech www.v2ex.com 2026-04-26 13:25:44+08:00

[OpenAI] chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech v2ex.com 2026-04-26 13:17:40+08:00

[OpenAI] chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech v2ex.com 2026-04-26 13:17:40+08:00

个人调优skill-creator分享

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-26 13:14:55+08:00

有没有佬友知道cpa怎么能持久化保留token统计数据?

我是部署在render上的,每次重启,token的使用统计数据就没了。有没有佬友知道,有啥免费的解决方法? 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:57:15+08:00

chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech www.v2ex.com 2026-04-26 12:52:40+08:00

[OpenAI] chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech v2ex.com 2026-04-26 12:46:24+08:00

chatgpt 充值 5x pro 前已经订阅了 plus,那 plus 的 20 刀就没了吗

我在升级 ChatGPT 5x Pro 前,已经通过 iOS/App Store 订阅了 ChatGPT Plus (扣款 $20 )。 因为 iOS 端没有看到可以直接订阅 ChatGPT 5x Pro 的入口,所以我先订阅了 Plus 。随后我又升级到了 ChatGPT 5x

tech www.v2ex.com 2026-04-26 12:45:39+08:00

[分享创造] 我做了一个 iOS 上的 Linux x86 容器

技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1

tech v2ex.com 2026-04-26 12:44:54+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-26 12:41:17+08:00

强烈建议大家 claude code 至少更新到 v2.1.116,A\ 修复了 3 个导致 cc 降智和 token 消耗更多的问题

npm i -g @anthropic-ai/claude-code@2.1.116 具体使用如上命令更新即可 完整消息来源见官方博客: https://www.anthropic.com/engineering/april-23-postmortem 3 个帖子 - 3 位参与

tech linux.do 2026-04-26 12:13:49+08:00