在 Android 本地复刻 ChatGPT Agent Mode
在虚拟屏幕上操作,不干扰用户自己在前台使用其他软件~ 「Aether 扶摇」开发进行时,尚未发布,敬请期待ww (没用推广是因为还没发布,应该不违规?) 4 个帖子 - 3 位参与者 阅读完整话题
本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第21页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 619 篇相关文章 · 第 21 / 31 页
在虚拟屏幕上操作,不干扰用户自己在前台使用其他软件~ 「Aether 扶摇」开发进行时,尚未发布,敬请期待ww (没用推广是因为还没发布,应该不违规?) 4 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
孩子在本地医院被诊断为自闭症,想要带孩子去北京更权威的医院看看,自己抢号抢了一周了,一直抢不到,自己写了一个脚本抢号,每次都提示环境异常,感觉凭个人能力是抢不到了,有没有大佬有好的办法,或者有靠谱便宜的黄牛,感激不尽!!!! 10 个帖子 - 8 位参与者 阅读完整话题
为什么codexapp账号登录换成api后发现本地对话聊天消失了,只剩项目聊天 3 个帖子 - 3 位参与者 阅读完整话题
主要是公司内网和本地vpn冲突,只能选择关闭clash系统代理,插件Zero Omega 走理。。。 缺点: Zero Omega的代理规则只能固定添加正则,不能走geosite、Loyalsoldier方案 codex client客户端没有提供代理设置功能,要使用也必须开cl
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
想做一个油猴插件,在linuxdo论坛发布回复和话题时自动调用ai检查是否违反论坛准则,避免违规,这个功能是否有需求? 1 个帖子 - 1 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
求助各位佬友,预算2-3万人民币。想在本地部署一套多智能体工作流,实现2-3个模型7*24h不间断协同作业,比如指令下达、纠偏、代码/文本生成等工作。 有没有什么小主机方案推荐,要不要等一等m5max的mac studio,感谢各位佬友 3 个帖子 - 3 位参与者 阅读完整话题
nvd.nist.gov NVD - CVE-2026-41651 BleepingComputer New ‘Pack2TheRoot’ flaw gives hackers root Linux access A new vulnerability dubbed Pack2T
IT之家 4 月 25 日消息,据《商业内幕》今日报道,美国又有一项州级数据中心禁令没能落地,缅因州州长珍妮特 · 米尔斯否决了一项法案。 按照原方案,缅因州将在 2027 年晚些时候之前暂停新建数据中心。米尔斯称,自己并不反对暂停数据中心项目,但这项已经在本月通过州众议院和参议
欢迎批评,也是 vibe coding 的产物,我是在尝试学习数学和物理相关理论的时候结合编码学的一些自己的看法在做实验,当然实验内容大部分也是 vibe coding 的产物,现有基准是这个模型在本地学习 fineweb 数据集,架构没有词典层,只有字符学习和相关纯数学架构和编