SE - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第107页 - 钛刻科技 | TCTI.cn

SE - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第107页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2474 篇相关文章 · 第 107 / 124 页

[推广] 网易爆米花目前算免费里体验最好的了吧,别和 infuse 比

免费就不用说了,主要是全平台,可以无缝同步~

tech v2ex.com 2026-04-21 22:08:48+08:00

gemini的Deep Research是没法用了吗

换了三个号都没法用 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 22:01:17+08:00

[分享创造] 个人开发了 3 年的数据可视化工具发布桌面端了

21 年的时候做了一个数据可视化开源项目,light-chaser 。后面推出了 Pro 版。这段时间又利用 AI 推出了桌面端。 项目还在持续打磨中,如果你对这类方向有兴趣,或者有实际落地场景,欢迎交流,任何真实反馈都很有价值。 也欢迎大家直接下载体验,桌面端完全免费 http

tech v2ex.com 2026-04-21 21:07:21+08:00

Kimi49的订阅真的很不耐用啊

用了2次deep research,再问几个问题就这样了 8 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-21 20:01:27+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:59:13+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:45:06+08:00

阿里云 Token Plan 来了

文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完

tech linux.do 2026-04-21 19:38:33+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:30:33+08:00

claude code中如何使用 kimi api?

我会设置base url 和 api key,但是我怎么知道我设置的模型是不是最新的kimi 2.6呢? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:30:15+08:00

如何准确地预测Deepseek v4发布情况

如何准确地预测Deepseek v4发布情况 ~~~~~今天不会发布~~~~~~ 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:30:09+08:00

GPT的image2似乎会搜索来看参考图片

如题,刚刚尝试image2看到思维链上有websearch 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:18:45+08:00

deepseek-v4下周发布,各位都有什么期待,能超越sonnet4.6?

2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:14:28+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:06:54+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:04:12+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 18:55:36+08:00

多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech www.v2ex.com 2026-04-21 18:36:33+08:00

OpenAI Response 缓存字段分析,OpenCode,Codex,CC-Switch,中转厂商,New API

经过我的一些调研,OpenAI Response 接口可以使用 prompt_cache_key 的字段来路由启用缓存,提供命中率。 目前 OpenCode 中已经可以通过 setCacheKey 的字段来设置了,然后 codex cli 是默认带这个功能的,并且不知道什么原因

tech linux.do 2026-04-21 18:10:01+08:00

天才程序员陨落,86渠道和chong渠道都没了

这一起事件都源自于一篇漏洞报告 [Security Report] Apple Pay receipt validation does not bind to purchaser Apple ID – potential subscription bypass - ChatGPT

tech linux.do 2026-04-21 18:02:00+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00