[分享发现] 飞机上 Starlink 测速
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
发现 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第53页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2107 篇相关文章 · 第 53 / 106 页
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
IT之家 4 月 26 日消息,一个国际天文学家团队公布了迄今对近邻宇宙膨胀速率最精确的直接测量结果,该结果非但未能平息长期存在的宇宙学争议,反而进一步加剧了所谓的“哈勃常数 / 张力”。 新研究以超过 1% 的精度测得哈勃常数为 73.50 ± 0.81 千米 / 秒 / 百万
如图,Augment code自己带的,不过更新预发布版本之后好像有没有了,现在的版本是: 0.840.7 ;不知道怎么搞自定义Baseurl,似乎有了一些方向? 4 个帖子 - 4 位参与者 阅读完整话题
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
快半年没去菜市场了,今天打算去买点菜。顺手买了两个馒头,发现有些面食品类已经涨价了。 普通馒头没变,还是1元1个。然后紫薯饼、南瓜饼这些涨价了。幅度不高,1斤涨了1元钱。 猜测一下这个店的盈利结构: 馒头六年前都是1元一个,一直没变过,所以这个应该前面有利润,后面利润应该是越来越
我发现Plus的额度确实比Team的高不少,但是Plus现在不知道有没有稳定的 佬们有用的吗 哪个划算 7 个帖子 - 7 位参与者 阅读完整话题
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
比上一代飞机上的 Wi-Fi 快多了,基本上和地面没有使用上的区别。(除了飞机上不能使用视屏通话)
有的公益站有很多模型,但一个个试用,发现很多都不能用,怎么能快速知道公益站当下哪些模型可以用? 4 个帖子 - 4 位参与者 阅读完整话题
用的佬友的一个项目 是不是这个 free 只能选低分辨率的呀?而且这个效果有点差劲,文字很多错的,这是降质了还是? 6 个帖子 - 3 位参与者 阅读完整话题
想买个迷你主机,发现24/25年的帖子里提到的配置,到今天基本都翻倍不止了,之前900能买的机器,现在要2000+ AI不但要剥夺大家的工作,让大家多掏订阅费,还要让大家买不起东西 钱全都流向天价年薪研究员和硬件厂商的口袋了 2 个帖子 - 2 位参与者 阅读完整话题
我发现一个神奇问题,我使用任何提示词使用gpt-image-2的时候都可以正常使用,但是一但提到梅西,他就一直卡着不生成,或者把我的图片不动的退回来了;这是什么原理??? 12 个帖子 - 8 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
我在pve里面有台debian机器,我在上面装了Rustdesk之后发现连接的时候每次Wayland都需要选择显示器。。。最后即使当我给它设置Clear掉Wayland选择,让它自动选择(唯一的显示器),过了一阵子之后又卡在被控端选择显示器上了。我真的是服了。 除了换X11以外还
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一