模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2480 篇相关文章 · 第 11 / 124 页

[程序员] 如何在国内受限网络环境下使用官方 claude 或 codex 等模型?

单位环境不能装 vpn ,但我自己账户还是订阅了 codex 等服务。想问下有没有什么优雅的方式使用原版服务呢?我目前有两种想法: 海外搞个服务器,上面跑一个 CLI ,本地通过 ssh 连接 海外服务器上部署 CLIProxyAPI 把 codex 转成 api 然后本地 co

tech v2ex.com 2026-05-02 13:35:17+08:00

国内大陆 App 能合规接入 gpt-image-2 吗?

大家好,想请教一个关于 中国大陆 App 上线 + 海外大模型接入合规 的问题。 我计划以中国大陆公司主体运营一款 App,主要经营和服务范围也是中国大陆用户。产品中会提供 AI 生成能力,包括: 文本/对话类能力:可能接入 GPT、Gemini 等模型; 图片生成能力:考虑使用

tech linux.do 2026-05-02 13:03:51+08:00

gpt pro账户没有支付方式怎么办

自己之前代充的账户今天突然掉了。想继续使用image2 模型。但是本人没有支付方式怎么办。gpt pro账户没有支付方式怎么办? 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-02 12:54:15+08:00

一天的Mimo模型深度体验以及账单出炉

当天 活动 获得的99块钱额度,基本全部用完了,只在hermes agent用了mimo-v2-omni模型,所以个人感觉有一定参考价值。先放账单: mimo-v2-omni的实际单价: 缓存命中 Token • 实际单价 : ¥0.56/1M 未命中缓存 Token • 实际单

tech linux.do 2026-05-02 12:19:35+08:00

5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech www.v2ex.com 2026-05-02 12:19:25+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 12:19:25+08:00

GPT-5.5 比 Opus 4.7 贵?论分词器和校准价格

下面是御三家当前旗舰模型的 API 标称价格 模型 API 模型名 标称输入价 $/MTok 标称输出价 $/MTok Gemini 3.1 Pro Preview gemini-3.1-pro-preview 2.00 12.00 GPT-5.5 gpt-5.5 5.00 30

tech linux.do 2026-05-02 12:07:05+08:00

5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech www.v2ex.com 2026-05-02 12:01:45+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 11:46:52+08:00

国产模型做逆向有推荐吗

手上的gpt号不够用了,国产模型做逆向,给gpt做补充,有推荐的吗。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 11:37:09+08:00

5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech www.v2ex.com 2026-05-02 10:51:27+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 10:51:27+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 10:15:27+08:00

5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech www.v2ex.com 2026-05-02 10:15:27+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 10:15:27+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 10:15:27+08:00

5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech www.v2ex.com 2026-05-02 10:15:27+08:00

请问各位大神,在隔离环境中,有本地 qwen 大模型,有没什么解决方案,做本地的知识库的方案,类似谷歌那个 notebooklm ,也勉强可以?

tech www.v2ex.com 2026-05-02 10:11:07+08:00

[OpenAI] 5.5 codex 模型是不是更耗流量了......

我感覺燒的比 5.4 更快,但是我的提升不是很明顯,你們感覺呢。

tech v2ex.com 2026-05-02 09:50:08+08:00

请教一下各位佬友,谷歌 AI Studio免费层级各个模型的配额是多少呀

如题,请教一下各位佬友,谷歌 AI Studio免费层级各个模型的配额是多少呀 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-02 09:01:52+08:00