model - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

model - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 137 篇相关文章 · 第 3 / 7 页

用cpa调用image模型提示不支持的格式 这个目前无解吗

API Error: 503 {“error”:{“message”:“model gpt-image-2 is only supported on /v1/images/generations and /v1/images/edits”,“type”:“server_error

tech linux.do 2026-04-25 10:37:38+08:00

GitHub Copilot上線GPT-5.5

GitHub Copilot The GitHub Blog GPT-5.5 is generally available for GitHub Copilot - GitHub Changelog GPT-5.5, OpenAI’s latest GPT model, is n

tech linux.do 2026-04-25 08:38:35+08:00

Codex cli 已经可以选择GPT 5.5模型

本来还想改 models.json的 codex --model gpt-5.5 的时候出更新提示了 更新之后就好了 @fedora:~/codexCLI$ codex --model gpt-5.5 Updating Codex via `npm install -g @ope

tech linux.do 2026-04-25 02:55:09+08:00

【更新】Codex 125版本/model加入了5.5系列「若你不是富可敌国 请慎用~」

1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 02:28:43+08:00

【深夜福利】免费送 GLM Coding Plan 体验卡 - 自取

剩余 3/3 张 https://bigmodel.cn/activity/trial-card/1BMR381KZD 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 02:08:51+08:00

ModelScope魔搭现已支持调用DeepSeek V4

Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50

tech linux.do 2026-04-25 00:55:10+08:00

使用claudecode最新版遇到的问题

为什么我用/model这样切换模型会直接卡死,有佬友可以指点一下吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 19:32:08+08:00

我的cc /model为什么不显示1mcontext了导致any用不了了

Default (recommended) Use the default model (currently Opus 4.7) · $3/$15 per Mtok 2. claude-opus-4-7 Custom Sonnet model ❯ 3. claude-opus-4

tech linux.do 2026-04-24 18:35:59+08:00

反重力的You can prompt the model to try again or start a new conversation if the error persists.适合账号有关

我有两个google账号是能正常用的 不会出现You can prompt the model to try again or start a new conversation if the error persists. 但是而且都是原本的pro账号 但是我发现 家庭组和免费的

tech linux.do 2026-04-24 16:41:10+08:00

codex app看不到gpt5.5,codex cli有。

也加了这个了:model_catalog_json = ‘.\model-catalog.gpt-5.5.json’ codex app和codex cli也都更新过了。本来cli也没有的,也是更新+添加json可以。微软商店的codex app 26.422.2437.0不是最

tech linux.do 2026-04-24 14:08:32+08:00

GPT 5.5 可能没法破限了

GPT 5.4 使用之前 model_instruction 方法,加上 ctf 相关的 skill,从没翻车过,就连一些恶意的 exploit 都帮写了。5.5 出来之后想试试渗透能力,结果会话被中断了,感觉可能是外审,这样的话可能没法破限了。 2 个帖子 - 2 位参与者 阅

tech linux.do 2026-04-24 13:28:09+08:00

deepseek 测评【转发】

内测群发的: DeepSeek-V4测试报告 model1: 优势: 该模型纯编程能力远强于Kimi-k2.6和GLM-5.1 模型上下文超长,利于大量文档阅读 劣势: 该模型未经过Agent使用环境优化 特征一:“亲历亲为”:模型极少使用SubAgent,导致上下文迅速膨胀 特

tech linux.do 2026-04-24 12:29:05+08:00

[问与答] 为什么通过 OpenAI codex 授权码配置的 hermes model 回复这么慢

但是在客户端或网页端的回复就很快

tech v2ex.com 2026-04-24 11:12:40+08:00

codex 桌面版没有5.5可以这样做

在cli端先执行,如果让更新cli版本就更新下 codex --model gpt-5.5 然后再打开桌面版就有啦 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:04:21+08:00

codex gpt 5.5不支持高上下文,貌似只有258k

然而我已经开了350k(刚刚还试过了512k / 1m) model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto

tech linux.do 2026-04-24 10:02:14+08:00

codex : Model metadata for `gpt-5.5` not found.

Defaulting to fallback metadata; this can degrade performance and cause issues. 咋破 13 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-24 03:31:17+08:00

求解,为什么CPA里使用gpt,/models正常,/responses 404

=== REQUEST BODY === {“model”:“gpt-5.4”,“instructions”:"You are Codex, === RESPONSE === Status: 404 Access-Control-Allow-Headers: * Acc

tech linux.do 2026-04-24 00:05:36+08:00

【已被领取】送一张智谱7天体验卡

只剩一张 https://www.bigmodel.cn/activity/trial-card/QUYLBSGQXI 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 00:02:52+08:00

codex提示Codex ran out of room in the model's context window.

咋回事?以前都没遇到过 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-23 23:17:08+08:00

cc-switch 中配置 any-router, 一直提示开启 1m 上下文后重试,选择了 1m 的模型也同样提示

cc-switch 中配置 any-router, 一直提示开启 1m 上下文后重试。我在 /model 中已经选择了 opus 1m 了,还是和刚刚一样提示 12 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-23 22:16:57+08:00