to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第70页 - 钛刻科技 | TCTI.cn

to - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第70页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2428 篇相关文章 · 第 70 / 122 页

34年键盘传奇 FILCO母公司毫无征兆停业

以Majestouch(圣手)系列闻名全球机械键盘圈的FILCO,其母公司Diatech株式会社正式宣布停止一切业务,“大F”键盘的时代就此落幕。 这家创立于1982年的日本老牌厂商,旗下FILCO品牌已有34年历史。在资深玩家社群中,FILCO与韩国品牌Leopold(大L)齐

tech plink.anyfeeder.com 2026-04-25 16:05:25+08:00

为了买到便宜靠谱的 Token,少被割韭菜,我做了个比价的网站

最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几

tech www.v2ex.com 2026-04-25 16:04:28+08:00

[程序员] 你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech v2ex.com 2026-04-25 15:50:42+08:00

[程序员] 你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech v2ex.com 2026-04-25 15:45:40+08:00

[程序员] 为了买到便宜靠谱的 Token,少被割韭菜,我做了个比价的网站

最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几

tech v2ex.com 2026-04-25 15:44:05+08:00

英伟达已适配 DeepSeek-V4 AI 模型,GB200 NVL72 开箱性能超 150 tokens / sec / user

IT之家 4 月 25 日消息,英伟达今天(4 月 25 日)发布博文, 宣布其 NVIDIA Blackwell 平台已适配 DeepSeek-V4-Pro 与 DeepSeek-V4-Flash 两款模型 ,开发者可通过 NVIDIA NIM 微服务下载部署,或利用 SGLa

tech www.ithome.com 2026-04-25 15:36:02+08:00

[Apple] 苹果 App Store 国区充值可获额外 10% 奖励

tech v2ex.com 2026-04-25 15:28:54+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 15:23:55+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

鱼的 X tl上怎么这么多简中cursor送token内容……

… 不过鱼鱼搜出来简中偏多,感觉很奇怪 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 15:07:24+08:00

Mac 端 Codex Desktop GPT5.5改 1000K 上下文教程

把提示词给Codex,让Codex帮忙改 提示词.txt (1.6 KB) 效果 11 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:47:36+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 14:43:04+08:00

兰博基尼 Revuelto SV 高性能混动超跑纽北测试曝光

IT之家 4 月 25 日消息,汽车媒体 autoexpress 昨日(4 月 24 日)发布博文,分享了一组在德国纽博格林赛道上抓拍的图片, 展示了正在测试的兰博基尼 Revuelto SV 高性能混动超跑。 IT之家援引博文介绍,SV 代表“SuperVeloce”,该标识自

tech www.ithome.com 2026-04-25 14:39:05+08:00

count to 10 starting from 11

gpt55回复11、12、13、14、15、16、17、18、19、20的原因是什么呢 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:32:16+08:00

[Apple] 苹果 App Store 国区充值可获额外 10% 奖励

tech v2ex.com 2026-04-25 14:30:05+08:00

求助!claude desktop在3P模式下无法设置chrome-devtools-mcp 工具 Always allow

win11 系统, 安装的chrome-devtools 在官方账号登录的模式下是可以设置工具权限为“Always allow”的,但是在3p模式下却不能,如下图所示: 官方账号模式: 3P模式: ai调研(貌似没有更简单的方式了): 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:18:20+08:00

海外评测DeepSeek-V4:智能体任务排名开源第一,幻觉率上升,Token消耗大

4月24日, DeepSeek-V4预览版正式发布并同步开源,号称在Agent能力、世界知识与推理性能三大维度达到国内及开源领域领先水平。DeepSeek-V4分为Pro与Flash两个版本,均支持百万(1M)token超长上下文。两个版本均大幅降低了对计算和显存的需求,将每个标

tech plink.anyfeeder.com 2026-04-25 14:05:13+08:00

[优惠信息] App Store 充值额外送 10%,折合 91 折

App Store 直接充值,充 5-1000 的话额外送 10%。 1000/1100=0.90909091 。 国区已验证

tech v2ex.com 2026-04-25 13:59:48+08:00

GPT-5.5 配了 1M 却又显示 258K?Codex Desktop Windows 修复记录(无效)

我遇到的问题是: config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。 最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的

tech linux.do 2026-04-25 13:59:11+08:00