[开源]ServLlama,一键让你的手机变成LLM服务器,无需Termux!功能强大堪比Ollama
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 895 篇相关文章 · 第 6 / 45 页
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
L油优先选择有GLM5.1或者Kimi-K2.6的,但需要要避雷字节的ARK方舟Plan,我买了一个季度结果踩坑了。第一个是限额,说是按次数实际上是Token,然后不同模型还要乘上高倍率系数,这些在我买之前都是没有说明的(现在加上了),经常跑一个任务还没跑完就到限额了。 第二个是
MIT Technology Review This startup’s new mechanistic interpretability tool lets you debug LLMs Goodfire wants to make training AI models mor
越来越少的human in the loop 越来越弱的human gateway 功能 口齿渐渐地不清,吞噬了过多llm的语料 甚至质量参差不齐,就像重蹈自己生成自己学的灾难性结果( ) 更别提伤害身体导致的计算能力下降说是 1 个帖子 - 1 位参与者 阅读完整话题
前阵子 Karpathy 写了一篇 关于 LLM Wiki 的文章 ,当时看了感觉挺有启发。 不过 AI 领域真实一天一个样子,变化太大了……可能有人没看到就被埋了,我再简单整理一下。 它讲的不是传统 RAG 那种“上传一堆文档,然后每次提问时临时检索几段内容”的方式。 他的核心
Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem
GLM新政第一天,我怎么没用就不动了呢? 一直不动30m 13s · ↓ 2 tokens) 1 个帖子 - 1 位参与者 阅读完整话题
3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m
官方的微信群里天天说卡顿报错,买也买不到,想试试看效果怎么样
哈哈哈这次就不提glm5.1了毕竟发布早了点性能没人家好也正常。 剩下这仨各位佬友体验下来哪个好用呢? codex很聪明但是不给我做逆向,甚至直接把我脚本里的相关逻辑给删了,属实逆天。 所以考虑mimo/deepseek/kimi这三个+cc试试。 这两天试了试dsv4pro,有
火山的coding plan. 用GLM5(巨慢), SubAgent用的doubao-seed-2.0-code. 跑了一天的活, 最后咔嚓一下给删除了. 今天白干了. 还真是不能随便给accept edits on. 吸取教训吧… 脑壳疼. 3 个帖子 - 3 位参与者 阅读
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
别人:普号,plus,team,education…… 我:Pro 就很。。。 别人: DeepSeek glm kimi 我:GPT Claude Gemini 就很。。。 别人: 我: 别人: 我: 别人: 我: 就很。。。 就很。。。 就很。。。 卧槽这个句式真是太好玩了
我把grillme的机制融入到了我的cs-brainstorm里了,然后我发现了一个很好用的用法。 情景就是:我确实很有想法,想法多到我自己都记不住,这样的话我很难完整地交代给AI。grillme就能让AI一直问,然后我一直输出,太爽了太爽了。 爽到最后AI都说要不要停一停去开干
有两个角度的图片 有一个答对概率高一点 这个答对概率比较高 这个答对概率很低 实测qwen的全家桶都全军覆没 谷歌的开源模型,3flash也无法解决 问题是:椅子是否朝向桌子 qwen和gemini的失败 gemini3.1pro也不行 chatgpt免费版也不行 出乎意料的是豆
目前主力是claude 20x 搭配一个gpt20x ,glm用来做循环任务,还是有点不够,佬们有推荐的吗 12 个帖子 - 7 位参与者 阅读完整话题
还是非常不错的样子 终于修复了我手机的dpi会影响到画面尺寸的问题(会变成电脑比例 按钮&文字变得很小) 关键是终于能用5.1了 只支持网页版 应用没有 7 个帖子 - 6 位参与者 阅读完整话题
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
题主现在vibe主要在用GLM、Mimo、Qwen基座下的Claude Code。三者优先级依次递减,根据前一个的coding plan有没有击穿决定是否启用后一个。 这种情况下问题就很显然了,每次都要重配环境变量。 (因为三个模型base url就不一样,因此不能通过配sonn
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?