【已无】送GLM Coding Plan 7天体验卡 * 3 - 先到先得
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第23页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 905 篇相关文章 · 第 23 / 46 页
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 1 个帖子 - 1 位参与者 阅读完整话题
根据realme(真我)官方通知,真我商城将于4月25日开始正式停止运营,自有App、网页端及小程序同步下线,品牌全面回归OPPO体系。停服后商城将终止购物、商品浏览、活动参与、积分兑换、直播观看等全部核心功能,仅保留历史订单查询入口,有效期至2027年4月25日。 用户可通过O
这篇帖子展示的是其他模型的编码情况 claude、gpt、gemini、glm做前端“大屏展示”的区别-已经全部更新 开发调优 昨天发了一个glm5.1和opus4.6的对比,做的是后端管理系统的全栈开发,本来想让他们去做一个agent的,但是感觉麻烦,就做一个最基本的后端管理系
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 2 位参与者 阅读完整话题
抽奖主题:GLM Coding Plan 7天体验卡 * 3 奖品详情: [奖品]:GLM Coding Plan 7天体验卡 * 3 活动时间: 开始时间:[2026年4月25日上午午11点20分] 截止时间:[2026年4月25日下午14点20分] 参与方式: 在本帖下回复任
我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: https://bigmodel.cn/activity/trial-card/FFJBKSFRXJ 1 个帖子 - 1 位参与者 阅读完整话题
佬们 还有啥免费的沉浸式翻译的提供商 智普最近把glm4flash 200并发掉20去了( 最新前沿快讯话题 - LINUX DO ) cerebras也要把两个模型下线了 longcat速度感觉又太慢了 以及这个并发在沉浸式翻译上什么数值才算合适 我给longcat现在设置的是
用着还行,GLM5写中等代码配合skills能用,占了个位置,后续可能也是会下架和阿里云一样。 2 个帖子 - 2 位参与者 阅读完整话题
之前根据 Karpathy 那个 LLM Wiki 的 idea 自己搭了一个用了段时间,最近抽空加了个纯静态的维基百科风格的网页。 其实我长期以来是没有记笔记的习惯的,手写太麻烦了,只是会有一些保存的习惯,看到不错的文章会加个书签,但过了很久之后很多书签都会失效, 尤其个人博客
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
剩余 3/3 张 https://bigmodel.cn/activity/trial-card/1BMR381KZD 3 个帖子 - 3 位参与者 阅读完整话题
如题 之前是200来着 现在改成20了 沉浸式翻译现在我已经转longcat flash了 并发20好像也没问题 不过我也不确定这是不是快讯 我是今天才发现的 4 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一