【抽奖】5个50刀Codex额度包
抽奖主题:五个50刀Codex额度,纯血号池(可用5.5模型),时限楼层到达300层。 奖品详情: [奖品1]:50刀Codex额度 [奖品2]:50刀Codex额度 [奖品3]:50刀Codex额度 [奖品4]:50刀Codex额度 [奖品5]:50刀Codex额度 活动时间:
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第66页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2631 篇相关文章 · 第 66 / 132 页
抽奖主题:五个50刀Codex额度,纯血号池(可用5.5模型),时限楼层到达300层。 奖品详情: [奖品1]:50刀Codex额度 [奖品2]:50刀Codex额度 [奖品3]:50刀Codex额度 [奖品4]:50刀Codex额度 [奖品5]:50刀Codex额度 活动时间:
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
阶跃星辰发布 StepAudio 2.5 ASR 自动语音识别模型:推理速度提升 400%,定价骤减 90% - IT之家 1 个帖子 - 1 位参与者 阅读完整话题
因为最近看到Claude Desktop也支持第三方API了, 但是用Chat2Api又好像不是很行的样子 佬们有教程的话求一个 3 个帖子 - 2 位参与者 阅读完整话题
IT之家 4 月 24 日消息,阶跃星辰今日宣布推出新一代自动语音识别模型 StepAudio 2.5 ASR。 该模型的核心突破在于率先将大语言模型的推理加速技术引入语音识别领域,在推理速度与转写精度两个维度均有显著提升,主要面向会议转写、语音交互、输入法、媒体内容处理、长音频
蚂蚁百灵万亿旗舰模型 Ling-2.6-1T 发布:主打“快思考”,对标 GPT-5.4 非推理版 - IT之家 5 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 24 日消息,蚂蚁集团旗下百灵大模型团队正式发布面向即时任务执行的万亿级综合旗舰模型 ——Ling-2.6-1T。 Ling-2.6-1T 采用了 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计
比如我下载了一个模型。 然后再把我所有文档交给它,二次训练。 那么,是不是就没必要 RAG 了。 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
IT之家 4 月 24 日消息,阿里云百炼平台宣布首发上线 DeepSeek-V4-Pro 与 DeepSeek-V4-Flash 两款模型,其 API 定价与 DeepSeek 官网基本一致,其中 Flash 版本输入价格最低 1 元百万 Tokens ,输出价格最低 2 元百
ccswitch显示正常 模型的api什么也都没有问题应该,但是接到Claude里面就会这样,佬有知道怎么解决的吗 4 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
比如我下载了一个模型。 然后再把我所有文档交给它,二次训练。 那么,是不是就没必要 RAG 了。 通过这个模型,我就能提问了嘛,毕竟,我的基因已经嵌入进去了。