人生中第一次装机🎉
买配件,组装,旧服务器环境迁移。 耗时 7 天终于搞定了 人生中第一次装机,还算顺利 https://resource.kaisir.cn/uploads/MarkDownImg/20260419/6Tvmgb.jpg (图片大于 4 MB) https://resource.k
服务器 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 397 篇相关文章 · 第 19 / 20 页
买配件,组装,旧服务器环境迁移。 耗时 7 天终于搞定了 人生中第一次装机,还算顺利 https://resource.kaisir.cn/uploads/MarkDownImg/20260419/6Tvmgb.jpg (图片大于 4 MB) https://resource.k
如上图所示,用vscode连接的远程ubuntu服务器,用的国内中转站的codex。 cli版本是0.121.0,能正常使用。但vscode的codex插件用不了,报错: stream disconnected before completion: error sending r
素来对电子设备感兴趣,虽说近期各种电脑配件涨价,但是仍阻挡不了我捡垃圾的欲望,怀揣着这种心情,颤颤巍巍地打开了黄鱼 由于之前捡过一次迷你主机,所以这次仍然准备对迷你主机下手,之前那次买的是nuc8i3(这个价感觉特别香了),但是由于ddr4笔记本内存居高不下,唯一的一根4g 21
美区留子。目前在家用 rpi 跑了一个小服务器。马上暑假要临时回国,想请问通过 tailscale 从国内访问该服务器的可行性和稳定性。 使用场景大概是 ssh 和 samba 。主要是怕到时候跑在 rpi 上的 openclaw 挂了没法 ssh 上去修。 有没有这方面 tai
Hello, OpenAI’s terms and policies restrict the use of our services in a number of areas. We have identified activity in ChatGPT that is not
鄙人使用学校的8xa40-Pcle服务器,使用vllm部署全精qwen27b,首发延迟高,约10s,速度慢,90-100tokens/s,看到很多人用3090部署速度都没这么慢,这是为什么?有没有推荐部署的模型,27b对显存浪费有点大,不过pcle带宽比较低 12 个帖子 - 5
目前订阅了 gpt pro ,codex 一次也没用过。。。主要是不知道咋在服务器上用,我一般是用 codex 的插件 服务器不能科学上网
如图: 上游是cpa,用的是gpt-pro订阅,服务器是dmit洛杉矶pro,cpa和sub2api都装在dmit里,本地用dmit的reality节点去访问的,问题出在哪呢? 我在纠结需不需要cpa和客户端之间加一层sub2api,不加的话用量看起来不详细,还是说cpa+NEW
RT,业务需求需要搭一个win10的系统,预期需要7*24小时运营,相当于当做服务器使用。 核心需求点应该是CPU,显示器随便,预期5k以内吧,想问问佬们有无推荐合适的电脑主机~ 在京东上看有小盒子的迷你电脑主机,不知道这类主机合不合适当做服务器来使用~ 24 个帖子 - 8 位
如下图,首字偷啃已经拉完了!我没招了。 这个可以从哪些方面进行优化呀,各位佬们。 服务器是北京联通家里云,我人也在北京,从客户端到sub2api应该没啥延迟。 然后用sub2api自带的ip管理功能上传了一个机场的订阅节点,反代的chatgpt号池。 难道是机场的节点太拉了? 1
各位,在L站佬友的帮助下,总算买了大妈的洛杉矶服务器,已经弄好节点了(reality)。几个问题求助: 是不是reality节点就够了?? 准备部署cpa,如何设置cdn加速?需不需要cdn加速? 3.是国内服务器部署cpa,然后用大妈服务器的代理,还是说直接在大妈服务器部署cp
以前用户没那么多服务器压力没那么大的时候确实可以快且免费提供服务,但是现在知名度高了模型强了用的人多了,肯定不能像以前那样了,毕竟kimi不像豆包那样背靠资本和广告,如果喷付费高额度少降智之类的问题我还能理解,一群人在哪说自己不想排队也不想付费,这是何意味 4 个帖子 - 4 位
IT之家 4 月 18 日消息,安全研究团队 OX Security 本周(4 月 15 日)发现,Anthropic 创建、维护的行业标准 AI 通信协议 MCP(IT之家注:Model Context Protocol)存在设计缺陷, 可导致服务器被诱导执行任意代码(RCE)
场景:私有大模型服务器,公司买的K100AI的卡8*64的显存 内存900g 硬盘11T 海光DCU 现在安装模型,只能安装海光的提供的模型,且只能定制对方提供的docker镜像和vllm指定的版本 以及模型。 想用来做claude code的调用安装模型。目前按照了千问的122
排查了好久,很烦,每次测试ssh tunnel都是通的,一连接就报错 1 个帖子 - 1 位参与者 阅读完整话题
新公益站测试压力和并发,抽5个20刀先试试水。希望佬不要嫌弃老弟吝啬。 2026年4月18日15:48:07 我研究一下 linuxdo的抽奖软件。 2026年4月18日15:54:09 学会了用 https://lottery.linux.do/ 进行抽奖。 2026年4月18
如题,现在服务器天天开着,有个动态的公网ip,除了当软路由之外,基本就没别的用途了,有什么渠道或者方法能稍微的回点电费的钱 6 个帖子 - 5 位参与者 阅读完整话题
同一台服务器 + 相同的网络 + 相同的请求内容 + 一样的请求链路 4.15号左右开始,发现CPA反代超级慢 账号都是Team + Plus 为什么速度差距这么大? 测速图片如下 16 个帖子 - 13 位参与者 阅读完整话题
我准备用我弟的学生认证,购买服务器,国内的云厂商,似乎只有腾讯云的2c4g轻量服务器友好一点,但是只能一次开一年,后面续费还不能按照首开价格续费,佬们有啥推荐的吗,服务器只是用来日常开发环境的搭建,生产不会用他的,基本上是docker安装中间件 11 个帖子 - 9 位参与者 阅
这是我24年当时买的99套餐的服务器。打算弄个sub2api一直崩。所以打算重新购买一个服务器。有大佬推荐一下吗。2h2g真没法用。最好是海外的【不然还要处理网络上的问题,所以懒得在原有上加配了,想直接重新买】 11 个帖子 - 11 位参与者 阅读完整话题