LINUXDO什么时候能搞一个技术交流会?
网站天天活跃度那么高,搞一场线下技术交流会大家觉得有必要吗? 9 个帖子 - 7 位参与者 阅读完整话题
一个 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第317页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 8952 篇相关文章 · 第 317 / 448 页
网站天天活跃度那么高,搞一场线下技术交流会大家觉得有必要吗? 9 个帖子 - 7 位参与者 阅读完整话题
标题是:Z 世代对 AI 越来越不感冒了 文章中有一句话:我们面对的是一个有缺陷的技术,在某些用途上确实好玩,但公司们却过度采用它,打着不用招聘初级员工的旗号——而这些人正是被调查的对象。在这种情况下,谁还能对它有好感呢?(我自己翻译的,翻译的不好请佬指正) 2 个帖子 - 2
一个问题,pro进阶5分钟就回答,heavy甚至一分钟,出来的答案也是拉中拉跟5.4进阶thking差不多了 6 个帖子 - 4 位参与者 阅读完整话题
之前买的别家的一个月 200G 用不完,自建的写的是 400G ,十几天用完了,几天就用了 100G ,是协议什么的搞错了吗?有没有懂哥
最近用一个 OSS 项目申请了 Codex 那个开发者项目然后奖励了一个 ChatGPT Pro 20X 6 个月抵扣码,我自己有 cc 了用不上这个 8 折出了 200USD * 6 * 0.8 = 960USD = 6,562 RMB 感觉金额有点大。。有人想要吗 其实我同时
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
如题,我让gpt做了一个agent来帮我管理手机,管控些合规的流氓,但是看到了有三星的安全服务进程在后台跑,我这是官方买的,这是二手刷机还是系统自带的,能不能删啊 2 个帖子 - 1 位参与者 阅读完整话题
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
之前根据 Karpathy 那个 LLM Wiki 的 idea 自己搭了一个用了段时间,最近抽空加了个纯静态的维基百科风格的网页。 其实我长期以来是没有记笔记的习惯的,手写太麻烦了,只是会有一些保存的习惯,看到不错的文章会加个书签,但过了很久之后很多书签都会失效, 尤其个人博客
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
有些失望,就是 X 的一个聊天 Tab 独立为 XChat 了,替代不了 TG ,也替代不了微信。
抽奖主题:4个满血windsurf试用号,一人一个 奖品详情: [奖品]:windsurf试用号,还有9天过期,速抽。 活动时间: 开始时间: now 截止时间: 今晚20:00 参与方式: 在本帖下回复任意内容 抽奖规则: 每位用户仅允许参与一次。 使用官方抽奖工具随机抽取中奖
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
之前买的别家的一个月 200G 用不完,自建的写的是 400G ,十几天用完了,几天就用了 100G ,是协议什么的搞错了吗?有没有懂哥
之前买的别家的一个月 200G 用不完,自建的写的是 400G ,十几天用完了,几天就用了 100G ,是协议什么的搞错了吗?有没有懂哥
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一