[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
最近 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第83页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2908 篇相关文章 · 第 83 / 146 页
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
最近 AI 工具更新频繁,尤其是 ChatGPT Pro 和 Grok 的加入,让不少小伙伴都想上车体验。但在订阅过程中,国内信用卡支付失败、账号被封、充值不到账等问题依然是大家的痛点。 结合我最近帮不少朋友解决问题的经验,总结了几个避坑指南分享给大家: 支付失败的常见原因 大部
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近各种中转站由于 plus 、pro 渠道死了,codex 包月都转流量了,苦苦寻觅了一个新大佬开的中转站,特来分享给有缘人。 openai gpt5.5,gpt-image-2 开通上线 base64:aHR0cHM6Ly9jbi5jaHJvdXRlci5jb206ODQ0M
上次玩 PT 站差不多是十多年前了,玩的 TTG 。 最近这一个月一直在折腾 arr 体系,已经基本完善了。 想求一个 M-Team 邀请,本人遵守社区规则,现在的 Public BT 分享率也在 0.6 左右。NAS 是 DS925+,36T 硬盘。 附上我的 arr 架构图。
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
佬友们。。这个是不是触发安全机制了?codex桌面端没报这个。。cli中显示cyber。。。吓人啊。。重启大法一下好像又好了。。 真的有问题的话。。如何解决。。 5 个帖子 - 3 位参与者 阅读完整话题
最近 AI 工具更新频繁,尤其是 ChatGPT Pro 和 Grok 的加入,让不少小伙伴都想上车体验。但在订阅过程中,国内信用卡支付失败、账号被封、充值不到账等问题依然是大家的痛点。 结合我最近帮不少朋友解决问题的经验,总结了几个避坑指南分享给大家: 支付失败的常见原因 大部
用不起太贵的,求推荐 要求不是很高,不会卡到直接掉服务就行了求求了 6 个帖子 - 6 位参与者 阅读完整话题
本人在校学生,学逆向的,最近感觉特别焦虑。有同学偷偷跑出去实习,干了几个月之后听他讲,感觉现在很多东西都需要切实与业内接触才能懂,什么核心业务啊,自学局限性比较大(当然我自学也是一坨,一事无成,感觉学东西很多时候就会表面,想往深处探但结果不是自己纠结好久没结果,就是走错路浪费时间
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
近一周模型大爆发,御三家中a/更新了Opus4.7,openAI更新了gpt5.5和image2,国模中月之暗面更新了Kimi2.6,还有万众瞩目的DeepSeekV4,就连老马都端出来了一个grok4.3,那谷歌最近在干嘛?下一代Gemini怎么连一点小道消息都没有? 15 个
大家好,我最近在做一个 AI 图片生成相关的小工具: https://promptsref.com/library/gpt-image 它本质上是一个 GPT Image Prompt Library ,主要想解决一个问题: 很多时候我们不是不会用 AI 生图,而是不知道一个好的
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
一直都是用 loon ,然后通过订阅加一些插件使用,最近好像很多梯子订阅链接都不支持了,都是用自己的客户端,请问这种情况怎么使用 loon 啊,求教,各位大佬。
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一