部署 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

部署 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 583 篇相关文章 · 第 3 / 30 页

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-05-01 01:27:08+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-05-01 00:27:08+08:00

Cloudflare 表示:AI现在可以代表用户创建 Cloudflare 帐户、开通付费订阅、注册域名和部署应用程序

The Cloudflare Blog – 30 Apr 26 Agents can now create Cloudflare accounts, buy domains, and deploy Starting today, agents can now be Cloudfl

tech linux.do 2026-04-30 23:18:16+08:00

Cloudflare开放AI代理自助开通能力 可代用户注册账号、购买域名并部署应用

Cloudflare宣布,从即日起,编程类AI代理已经可以代表用户完成Cloudflare账号开通、付费订阅启动、域名注册以及获取用于部署代码的API令牌,整个过程无需人工进入控制台操作,也不需要手动填写信用卡信息;在这一新模式下,人类通常只需在服务条款确认环节介入一次即可。 过

tech plink.anyfeeder.com 2026-04-30 23:05:26+08:00

求助大佬,有没有可以2api生视频的方案

最近部署了站内大佬的waoowaoo项目,但是没有生视频的api,请教大佬有可以2api视频模型的这个方案吗 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-30 20:15:16+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:21:21+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:11:00+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 18:10:19+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 18:07:57+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:56:37+08:00

求好用的可部署VPS的邮箱项目

最近想搞个自己的私人邮箱 但是不知道有哪个好用的项目呀 mailu部署成功了 但是因为25端口被封了 没法发送邮件 也不知道该怎么操作 有没有别的办法能够让我也能发件呀 或者还有没有好用一些的邮箱项目让我用一下 另外就是各位大佬们 25 端口被封了之后你们都是怎么发信的呀有没有什

tech linux.do 2026-04-30 17:21:56+08:00

私有化部署大模型的“终点”是 Mac 还是 Nvidia?

自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark

tech www.v2ex.com 2026-04-30 17:20:18+08:00

有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech www.v2ex.com 2026-04-30 17:07:57+08:00

中央网信办部署开展“清朗 · 整治 AI 应用乱象”专项行动,重点整治“数字泔水”等问题

IT之家 4 月 30 日消息,据“网信中国”微信公众号,为规范 AI 服务和应用,促进行业健康有序发展,保障公民合法权益,近日,中央网信办印发通知,在全国范围内部署开展 为期 4 个月的“清朗 · 整治 AI 应用乱象”专项行动 。 中央网信办有关负责人表示,本次专项行动分两个

tech www.ithome.com 2026-04-30 17:07:14+08:00

使用socks代理产生的证书问题

前因是这样的,在本地服务器的docker上部署了一个国产2api的服务,匿名或者token都是可以的,但是大概短时间内200次请求就会拒绝了, 所以本地搭建了个goproxy服务,提供socks的代理池,使用check工具都能通过,本地的windows环境使用curl -k或者c

tech linux.do 2026-04-30 16:53:53+08:00

[分享创造] [开源] 微信 bot 消息桥接服务

微信三月份发布了 微信 ClawBot ,不想在电脑上部署 ClawBot ,这玩意风险太大了,但是想将 Bot 的对话能力部署在本地,于是就有了本项目。使用了一段时间,感觉还是挺有用的 最大的用处 :把其他服务的运行情况直接发到微信 Bot (服务器告警、签到通知、金价推送等)

tech v2ex.com 2026-04-30 16:29:05+08:00

[分享创造] [开源] 微信 bot 消息桥接服务

微信三月份发布了 微信 ClawBot ,不想在电脑上部署 ClawBot ,这玩意风险太大了,但是想将 Bot 的对话能力部署在本地,于是就有了本项目。使用了一段时间,感觉还是挺有用的 最大的用处 :把其他服务的运行情况直接发到微信 Bot (服务器告警、签到通知、金价推送等)

tech v2ex.com 2026-04-30 16:29:05+08:00

[Local LLM] 有一台 16 寸 m1max 64g+1T 满 GPU 的 MacBook Pro 适合部署哪个本地模型

配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?

tech v2ex.com 2026-04-30 16:29:02+08:00