最近 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第83页 - 钛刻科技 | TCTI.cn

最近 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第83页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2908 篇相关文章 · 第 83 / 146 页

[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法

做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结

tech v2ex.com 2026-04-25 14:53:06+08:00

[推广] [分享] 聊聊最近订阅 ChatGPT Plus 和 Claude Pro 遇到的一些坑及解决方案

最近 AI 工具更新频繁,尤其是 ChatGPT Pro 和 Grok 的加入,让不少小伙伴都想上车体验。但在订阅过程中,国内信用卡支付失败、账号被封、充值不到账等问题依然是大家的痛点。 结合我最近帮不少朋友解决问题的经验,总结了几个避坑指南分享给大家: 支付失败的常见原因 大部

tech v2ex.com 2026-04-25 14:52:31+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 14:43:04+08:00

[分享发现] 新开中转站,有 GPT 包月可以薅,分享给有缘人

最近各种中转站由于 plus 、pro 渠道死了,codex 包月都转流量了,苦苦寻觅了一个新大佬开的中转站,特来分享给有缘人。 openai gpt5.5,gpt-image-2 开通上线 base64:aHR0cHM6Ly9jbi5jaHJvdXRlci5jb206ODQ0M

tech v2ex.com 2026-04-25 14:40:12+08:00

[Private Tracker] 最近沉迷 arr 搭建,求一个 M-Team 邀请

上次玩 PT 站差不多是十多年前了,玩的 TTG 。 最近这一个月一直在折腾 arr 体系,已经基本完善了。 想求一个 M-Team 邀请,本人遵守社区规则,现在的 Public BT 分享率也在 0.6 左右。NAS 是 DS925+,36T 硬盘。 附上我的 arr 架构图。

tech v2ex.com 2026-04-25 14:33:18+08:00

[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法

做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结

tech v2ex.com 2026-04-25 14:30:44+08:00

[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法

做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结

tech v2ex.com 2026-04-25 14:30:44+08:00

openai这个cyber是不是有风险。。氪了两年plus最近刚开pro。。求大佬指教。。

佬友们。。这个是不是触发安全机制了?codex桌面端没报这个。。cli中显示cyber。。。吓人啊。。重启大法一下好像又好了。。 真的有问题的话。。如何解决。。 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:30:19+08:00

[推广] [分享] 聊聊最近订阅 ChatGPT Plus 和 Claude Pro 遇到的一些坑及解决方案

最近 AI 工具更新频繁,尤其是 ChatGPT Pro 和 Grok 的加入,让不少小伙伴都想上车体验。但在订阅过程中,国内信用卡支付失败、账号被封、充值不到账等问题依然是大家的痛点。 结合我最近帮不少朋友解决问题的经验,总结了几个避坑指南分享给大家: 支付失败的常见原因 大部

tech v2ex.com 2026-04-25 14:20:19+08:00

佬们有没有好用的机场推荐啊,最近我的机场延迟都起飞了

用不起太贵的,求推荐 要求不是很高,不会卡到直接掉服务就行了求求了 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:16:41+08:00

唉唉唉好焦虑

本人在校学生,学逆向的,最近感觉特别焦虑。有同学偷偷跑出去实习,干了几个月之后听他讲,感觉现在很多东西都需要切实与业内接触才能懂,什么核心业务啊,自学局限性比较大(当然我自学也是一坨,一事无成,感觉学东西很多时候就会表面,想往深处探但结果不是自己纠结好久没结果,就是走错路浪费时间

tech linux.do 2026-04-25 14:08:58+08:00

[Codex] 我的 codex 经常崩溃有什么解决办法,最近加载数据很慢才出来。

tech v2ex.com 2026-04-25 14:08:37+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

谷歌怎么最近这么安静?

近一周模型大爆发,御三家中a/更新了Opus4.7,openAI更新了gpt5.5和image2,国模中月之暗面更新了Kimi2.6,还有万众瞩目的DeepSeekV4,就连老马都端出来了一个grok4.3,那谷歌最近在干嘛?下一代Gemini怎么连一点小道消息都没有? 15 个

tech linux.do 2026-04-25 13:47:21+08:00

[分享创造] 做了一个 GPT Image Prompt Library,收集一些可直接复用的生图提示词

大家好,我最近在做一个 AI 图片生成相关的小工具: https://promptsref.com/library/gpt-image 它本质上是一个 GPT Image Prompt Library ,主要想解决一个问题: 很多时候我们不是不会用 AI 生图,而是不知道一个好的

tech v2ex.com 2026-04-25 13:44:58+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:36:22+08:00

[Apple] ios loon 订阅链接问题

一直都是用 loon ,然后通过订阅加一些插件使用,最近好像很多梯子订阅链接都不支持了,都是用自己的客户端,请问这种情况怎么使用 loon 啊,求教,各位大佬。

tech v2ex.com 2026-04-25 13:34:56+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:03:16+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 12:52:52+08:00