工具 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第33页 - 钛刻科技 | TCTI.cn
工具 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第33页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1152 篇相关文章 · 第 33 / 58 页
[问与答] 现在用哪个 rss 工具. 哪个带翻译。 follow 后来翻译也挂了
[问与答] 现在用哪个 rss 工具. 哪个带翻译。 follow 后来翻译也挂了
[问与答] 现在用哪个 rss 工具. 哪个带翻译。 follow 后来翻译也挂了
[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
[分享发现] 做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法
做了一个 GEO 工具平台,想听听大家对 AI 搜索优化的看法 最近一直在关注一个变化:越来越多问题,用户已经不是先去搜索引擎翻网页了,而是直接问 ChatGPT 、豆包、Kimi 、文心、Perplexity 这类 AI 工具。 传统 SEO 解决的是“我的页面能不能排在搜索结
Claude 使用gpt5.5模型
Ai coding 这么久以来心里总有个疑问,Claude 使用gpt的模型对比使用自家oups的模型是会有工具对模型适配或者模型对工具的适配吗?反之也是一样的问题,L站得佬辛苦答疑一波 2 个帖子 - 2 位参与者 阅读完整话题
诚心求助:毕业设计如何降低AI率,有没有靠谱工具推荐?
佬友们好,目前在做毕业设计,学校对AI率检测比较严格。虽然内容是自己整理和修改的,但检测结果还是偏高,有点焦虑。 想请教一下各位佬友,有没有比较靠谱的降AI率工具或者方法? 7 个帖子 - 7 位参与者 阅读完整话题
马斯克力推 Grok 编程工具,但消息称自家 SpaceX 员工也不太爱用
IT之家 4 月 25 日消息,当地时间 4 月 23 日,据彭博社报道,xAI 几个月来一直在向企业推销 Grok,希望让客户用 Grok 来加快编程流程。但讽刺的是,马斯克自己体系内的员工,有时也不太愿意这么用。 知情人士透露,一些 SpaceX 工程师在技术工作中迟迟没有积
kimi接入cc工具无法调用怎么办?
买了kimi的套餐,接入cc的时候调用工具总是失败怎么办?特别是WebSearch和WebFetch,求助大佬 1 个帖子 - 1 位参与者 阅读完整话题
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
[Local LLM] 我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
cc里用gpt5.5 read工具调用问题
今天切5.5在cc里用,有时候看到一直卡在读文件,我这里基本是必现,看了下发现5.5返回的工具调用有问题,pages给了个空字符串,然后cc判断参数异常了 关键看交互有时候他知道自己参数错了 还是纠正不回来 试了下简单加全局提示词纠正不回来 切回5.4简单试了下,第一次读文件会带