FluxDo如何实现直连
我是安卓手机,安装了FluxDo,发现挺好用的,我想问问佬们,如何直连,不想挂梯子 此贴已解决,看到别的佬发的帖子了 https://linux.do/t/1634764/3 放这里给有需要的人参考使用 3 个帖子 - 3 位参与者 阅读完整话题
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第55页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2125 篇相关文章 · 第 55 / 107 页
我是安卓手机,安装了FluxDo,发现挺好用的,我想问问佬们,如何直连,不想挂梯子 此贴已解决,看到别的佬发的帖子了 https://linux.do/t/1634764/3 放这里给有需要的人参考使用 3 个帖子 - 3 位参与者 阅读完整话题
最近开发一个小工具,发现 GPT 总爱在目录下放一个 README.md,并解释当前目录和文件的作用,并写了一些约束,我不知道这算不算好的实践,但总看起来怪怪的,因为到处都是 README.md。 8 个帖子 - 4 位参与者 阅读完整话题
各位佬,最近发现个特头疼的事,让 AI 写个技术方案,它倒好每一段都跟缩水了似的,就给两三行。要么就是全是些提高性能、增强稳定性这种废话 ,一点实操细节都没有。 我试过加“请详细说明”,结果它只是把废话变长了,还是没干货。 想请教下大家,有没有什么压箱底的提示词或者调教技巧?
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。
我自己使用 目前发现zfb授权成功后会跳转回stripe帐单页面 提示 处理您的付款时发生了错误。请稍后再试或使用另一支付方式。 换了几个号还是不成功 有没有懂得佬解释下 是啥问题 1 个帖子 - 1 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。 3 个帖子 - 3 位参与者 阅读完整话题
新服务器装好后,我发现我挺在意机箱里的硬件温度以及风扇转速信息的,于是花了点时间在 NginxPulse 上扩展了下。
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
在GitHub上发现了一个仓库:talk-normal,用途在readme里也写了——让任何 LLM 说人话: hexiecs/talk-normal 仓库作者着重使用了gpt模型作为例子,实测把它的提示词放到AGENTS.md也确实能约束一下GPT5.4的语气 有兴趣的佬友可以
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我发现抖音和小红书上有很多人分享 AI 写真指令,就是一群爱美女士通过豆包生成写真,不得不承认确实非常漂亮、养眼。评论区里有很多人求指令。 我以为这是一个机会,说明很多爱美女士也想拍写真,但又不掌握复杂的提示词,那么如果把这个过程简化一下呢?做一个提示词大全或者写真大全的网站,是
我在 aistudio 发现了一个很奇怪的事情,就是 gemini-flash-latest 是 gemini-3-flash-preview 的 alias ,但两者定价不同,前者输入、输出分别是 0.3 、2.5 ,后者是 0.5 、3.0 ,不知各位是否留意到这个,应该放心