无意间发现Augment这是要支持byok了?
如图,Augment code自己带的,不过更新预发布版本之后好像有没有了,现在的版本是: 0.840.7 ;不知道怎么搞自定义Baseurl,似乎有了一些方向? 4 个帖子 - 4 位参与者 阅读完整话题
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第54页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2125 篇相关文章 · 第 54 / 107 页
如图,Augment code自己带的,不过更新预发布版本之后好像有没有了,现在的版本是: 0.840.7 ;不知道怎么搞自定义Baseurl,似乎有了一些方向? 4 个帖子 - 4 位参与者 阅读完整话题
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
快半年没去菜市场了,今天打算去买点菜。顺手买了两个馒头,发现有些面食品类已经涨价了。 普通馒头没变,还是1元1个。然后紫薯饼、南瓜饼这些涨价了。幅度不高,1斤涨了1元钱。 猜测一下这个店的盈利结构: 馒头六年前都是1元一个,一直没变过,所以这个应该前面有利润,后面利润应该是越来越
我发现Plus的额度确实比Team的高不少,但是Plus现在不知道有没有稳定的 佬们有用的吗 哪个划算 7 个帖子 - 7 位参与者 阅读完整话题
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
有的公益站有很多模型,但一个个试用,发现很多都不能用,怎么能快速知道公益站当下哪些模型可以用? 4 个帖子 - 4 位参与者 阅读完整话题
用的佬友的一个项目 是不是这个 free 只能选低分辨率的呀?而且这个效果有点差劲,文字很多错的,这是降质了还是? 6 个帖子 - 3 位参与者 阅读完整话题
想买个迷你主机,发现24/25年的帖子里提到的配置,到今天基本都翻倍不止了,之前900能买的机器,现在要2000+ AI不但要剥夺大家的工作,让大家多掏订阅费,还要让大家买不起东西 钱全都流向天价年薪研究员和硬件厂商的口袋了 2 个帖子 - 2 位参与者 阅读完整话题
我发现一个神奇问题,我使用任何提示词使用gpt-image-2的时候都可以正常使用,但是一但提到梅西,他就一直卡着不生成,或者把我的图片不动的退回来了;这是什么原理??? 12 个帖子 - 8 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我在pve里面有台debian机器,我在上面装了Rustdesk之后发现连接的时候每次Wayland都需要选择显示器。。。最后即使当我给它设置Clear掉Wayland选择,让它自动选择(唯一的显示器),过了一阵子之后又卡在被控端选择显示器上了。我真的是服了。 除了换X11以外还
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
是不是grok的普号太多了,就限制了grok普号用不了expert,但x还可以用expert 5 个帖子 - 5 位参与者 阅读完整话题
最近刚订购了一个minimax的token plan,把apikey填上去发现,点击获取模型会出现不支持模型列表,就算手动填了MiniMax-M2.7还是会提醒提示404,这是ccswitch的问题还是minimax的问题,这minimax不还是他们家赞助商吗,怎么这个支持都有问