[分享创造] Oh My PPT - 纯本地 AI 幻灯片生成与编辑工具
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 619 篇相关文章 · 第 19 / 31 页
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
如题: 登录Antigravity,拿到本地登录链接到指纹浏览器登录认证,认证成功了,IDE端好像拿不到返回认证后的结构,请教一下大家,如何进行解决,是否有解决方案。 对登录认证流程不了解,感谢各位解答 1 个帖子 - 1 位参与者 阅读完整话题
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
大佬们,我现在是本地部署的cpa(free+plus),我有点想整个服务器搭个节点可以给我朋友用,顺便 剧透 ,我想问下服务器该怎么选?选哪里的服务器好一点,该怎么选配置,我现在还是学生预算有限,最好能性价比高一些。请教一下佬们 7 个帖子 - 7 位参与者 阅读完整话题
我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
标题:做了个 HTML 版 PPT 生成器,治好了我的汇报焦虑 🎨💻 每次要做分享/汇报/路演/答辩 最纠结的不是内容,而是 PPT 排版! 改字体、对对齐、调间距…一做就是一下午,心累😫 市面上的 AI PPT 工具我也试过不少 生成出来是挺快,但都是固定格式的文件 想微调样式
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
请问各位佬,我vscode连接服务器,用codex的插件版,在模型列表里面为什么没有5.5啊。 但是我在本地的codex应用里面是可以访问5.5的,同一个账号。 本人plus用户,顺便问问现在plus大概是个什么价位,有无渠道,问了几个人都说风控,价钱快要和原价开差不多了。 5
具体 mcp 部署可以参考我之前的帖子 或者搜索 catoncat/notion-local-ops-mcp 如果你是team版,还可以创建agent使用这个mcp 12 个帖子 - 5 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一