[中州韻] 最近评测了一下 rime 平台各个拼音方案,发现白霜拼音整句效果最好,欢迎大家一起评测
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第59页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2150 篇相关文章 · 第 59 / 108 页
最新评测结果: https://github.com/gaboolic/rime-schema-compare/blob/main/report/latest.md 根据最新评测结果(生成时间: 2026-04-25 16:49:02 +08:00 ),白霜拼音在不使用模型和使用
中午还以为我贴错了,发现别的佬友也有这样的情况,复制的linux.do的链接变成 https://xn--56jc066ubvhxpiwmniwb4v6c7qx8ky 的格式了 8 个帖子 - 3 位参与者 阅读完整话题
今天重新更新到Antigravity最新版看看有没有好一点 发现claude的模型竟然加入了新的限制 当任务比较复杂 超过一分钟未响应直接强制断开 无语中 退款被拒 马上要续费了 不准备续费了 就这怎么有信心它以后会好起来 一直在努力的负优化 从未正优化 发挥很稳定 1 个帖子
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
GPT Image 2 韩文提示词实测 这次测试 GPT Image 2 ,最明显的感受是:它对韩文 prompt 的理解不是简单翻译,而是真的能抓住细节。 测试用的韩文提示词是: 엄청 인형같은 얼굴의 K팝 여자 아이돌이 금색 여름 해변 의상을 입고 한국 잡지 표지 모
GPT Image 2 韩文提示词实测 这次测试 GPT Image 2 ,最明显的感受是:它对韩文 prompt 的理解不是简单翻译,而是真的能抓住细节。 测试用的韩文提示词是: 엄청 인형같은 얼굴의 K팝 여자 아이돌이 금색 여름 해변 의상을 입고 한국 잡지 표지 모
GPT Image 2 韩文提示词实测 这次测试 GPT Image 2 ,最明显的感受是:它对韩文 prompt 的理解不是简单翻译,而是真的能抓住细节。 测试用的韩文提示词是: 엄청 인형같은 얼굴의 K팝 여자 아이돌이 금색 여름 해변 의상을 입고 한국 잡지 표지 모
对图标设计非常友好了 10 个帖子 - 6 位参与者 阅读完整话题
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
之前一直想生成一张《蜘蛛侠:平行宇宙》的图,但是反复504,随便让他生成一个东西又是可以的。 上了官方的web端生成,提示违反了政策。 但是生成了几张日漫,一点问题都没有。 所以估计是仅保护美国动漫的版权???PS:赛博朋克是日本公司TRIGGER制作 成果: 7 个帖子 - 5
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我寻思你们opencode用的不就是a/的协议么,怎么会出现工具调用的问题呢,匪夷所思了 消费还是要谨慎啊,贪小便宜又损失34rmb 28 个帖子 - 14 位参与者 阅读完整话题
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近各种中转站由于 plus 、pro 渠道死了,codex 包月都转流量了,苦苦寻觅了一个新大佬开的中转站,特来分享给有缘人。 openai gpt5.5,gpt-image-2 开通上线 base64:aHR0cHM6Ly9jbi5jaHJvdXRlci5jb206ODQ0M
今年过年,托尼发现家里好多长辈都还保持着“手机电量用完再充电”的习惯,还说这样对电池好,能用的时间长,几十年的经验了……你跟他们讲厂商都提醒过“过充过放伤电池”,电池健康掉的快,他们就说那是计划报废让你买新手机…… 类似于这样的都市传说,托尼平常看到只是图一乐,没想到家里的长辈口
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结