[分享发现] 小红书下场做 app 工厂
圆周和 sigma 那几个每天都能刷到一群广告,还都挺直接的,这是内部转型还是说测试投放系统? 代码不值钱了,大家都拼命卷了。
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第63页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2165 篇相关文章 · 第 63 / 109 页
圆周和 sigma 那几个每天都能刷到一群广告,还都挺直接的,这是内部转型还是说测试投放系统? 代码不值钱了,大家都拼命卷了。
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
不知道为什么这几天发现,开启 TUN 模式之后还要打开全局模式,Codex才能够比较稳定使用。使用绕过大陆模式的时候 Codex 经常会不太稳定,有各位佬友们知道怎么解决吗? 11 个帖子 - 11 位参与者 阅读完整话题
圆周和 sigma 那几个每天都能刷到一群广告,还都挺直接的,这是内部转型还是说测试投放系统? 代码不值钱了,大家都拼命卷了。
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
圆周和 sigma 那几个每天都能刷到一群广告,还都挺直接的,这是内部转型还是说测试投放系统? 代码不值钱了,大家都拼命卷了。
家里宝宝刚出生,最近几天在想名字,尝试了Chatgpt、Gemini、Grok,用了一圈发现都不太适合用来取中国名,重复度都非常高,都不满意。 各位佬们,有其他好的AI可以推荐不? 5 个帖子 - 5 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
公司后端写的接口部署到测试环境了,访问之后发现跨域了,把浏览器的跨域截图发给后端开发,问我报什么错了?难道都 2026 年还不理解跨域是什么原理吗?还需要我给他科普一下吗?心累。
新审查是类似gemini的外审 但gpt5.5外审在正经工作的时候现在都是敏感肌 且频繁触发会导致该账号使用gpt5.5时的tps大幅降低 疑似为高风险账号导致遭到云端多次审查才会给你这次请求放行 也可能是强制路由到其他本来就慢模型 gpt5.5本身tps很快 一风控就特别明显
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
更新完新版Codex之后突然发现无法连接上我的ssh了 会出现Permission denied的字样 看起来是安全策略有了一些变更 那么直接给出解决方案: 在config.toml加上 approval_policy = “on-request” sandbox_mode =
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一