[求助] ClaudeCode总是出现API Error: The socket connection was closed unexpectedly.
API Error: The socket connection was closed unexpectedly. For more information, pass verbose: true in the second argument to fetch() 这种情况是为什
API - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1487 篇相关文章 · 第 7 / 75 页
API Error: The socket connection was closed unexpectedly. For more information, pass verbose: true in the second argument to fetch() 这种情况是为什
LDO社区(原 HarmonyDO)更新:已全面适配 API 23,开放新版邀请测试 本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上「开源推广」标签:是 我的开源项目完整开源,无未开源部分:是 我的开源项目已链接认可 LINUX DO 社区
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
CodexAPP有办法使用第三方api吗?ClaudeAPP都开放了,有点说不过去啊 10 个帖子 - 4 位参与者 阅读完整话题
在做一个小软件,需要根据不同的提示词去生成图片,喜欢使用gpt image 2.0的接口,我不介意付费。我现在在使用一个叫grsai的服务,还算便宜吧,但是生一张图好几分钟,感觉有点慢,想看看有没有更快的。求大佬推荐。 9 个帖子 - 8 位参与者 阅读完整话题
请问各位大佬,我已经升级到最新的sub2api,看官方说已经支持了fast模式,并且我已经开成透传 codex的config.toml已经配置了 [features] service_tier = “fast” plan_tool = true view_image_tool =
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
小米mimo的开发者api-key接入Claude desktop 1.自行申请小米mimo的开发者计划 这里L站的佬以及写了详细教程 友情链接: 小米mimo新活动,免费申请白嫖token - 搞七捻三 - LINUX DO 2.申领成功后打开连接 1.打开mimo的api连接
这样做的话最近有被封号吗? 目前同时在用好几台服务器做开发,美日德都有,怕同时oauth登录风险太大。不知道能不能从us的机器开服务,然后给其他几个地区的机器使用。 总用量不大,在50%配额以内。 1 个帖子 - 1 位参与者 阅读完整话题
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
万能的佬友们有无稳定的gpt-image-2 api渠道呀 3 个帖子 - 3 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
用的公益站的,想在rikkahub和cherry用,怎么添加参数能出2k/4k之类的 1 个帖子 - 1 位参与者 阅读完整话题
我们团队正在做 AI 基础设施方向的工作,日常需要系统性评测各类中转站的可靠性,帮助内部项目做选型决策。 市面上的评测大多是"能不能连上"、"速度怎么样",但对我们来说更关键的问题是:这个接口背后到底在跑什么?有没有在请求或响应上动手脚?