用cpa调用image模型提示不支持的格式 这个目前无解吗
API Error: 503 {“error”:{“message”:“model gpt-image-2 is only supported on /v1/images/generations and /v1/images/edits”,“type”:“server_error
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2586 篇相关文章 · 第 61 / 130 页
API Error: 503 {“error”:{“message”:“model gpt-image-2 is only supported on /v1/images/generations and /v1/images/edits”,“type”:“server_error
这两天ai资讯有点多,openai和幻方都有发布新模型,有佬友测了测v4吗?用来干活感觉如何? 5 个帖子 - 5 位参与者 阅读完整话题
Ai coding 这么久以来心里总有个疑问,Claude 使用gpt的模型对比使用自家oups的模型是会有工具对模型适配或者模型对工具的适配吗?反之也是一样的问题,L站得佬辛苦答疑一波 2 个帖子 - 2 位参与者 阅读完整话题
之前注册的一个佬的公益站,上架了claude模型。我想使用codex配置api直接调用公益站里的claude模型,这样可以实现吗,配置文件该怎么写。神通广大的L友们,求解答 1 个帖子 - 1 位参与者 阅读完整话题
不同于以往的换脸,是整个人物的更换。 这是怎么做到的?用什么模型、什么工具? 6 个帖子 - 6 位参与者 阅读完整话题
现在AI大模型发展这么快,各种新名词冒出来,简直是大爆炸,突然想讨论,百度做了什么共享呢? 题外话-最近刚入坑Vibe Coding后,感觉回不去了。已经刷新我对AI编程的看法,现在GLM 的Code Plan Lite老友借我的,但是不够用,有什么推荐嘛。 1 个帖子 - 1
欢迎批评,也是 vibe coding 的产物,我是在尝试学习数学和物理相关理论的时候结合编码学的一些自己的看法在做实验,当然实验内容大部分也是 vibe coding 的产物,现有基准是这个模型在本地学习 fineweb 数据集,架构没有词典层,只有字符学习和相关纯数学架构和编
大家coding都有哪些白嫖的大模型api,感觉确实免费就是最贵的 5 个帖子 - 4 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题
我需要claude来帮我写代码,但是官方的实在是太贵了,根本负担不起,所以想找一些中转站来凑合着用,有什么办法判断中转站的claude真假吗?佬友们,可以给我推荐点claude渠道吗,谢谢 1 个帖子 - 1 位参与者 阅读完整话题
想问下各位大哥使用 cursor 如何自定义模型呢 是否支持中转站呢? 3 个帖子 - 3 位参与者 阅读完整话题
通过cc-switch 3.14.1 把gpt模型放进Claude Code 2.1.119的缓存全部丢失,每轮对话都只有系统提示词在缓存里(约16k~20k) 导致我一小时被烧掉两百刀gpt。太离谱了。 回退到2.1.100版本的claude code则恢复缓存。 该版本ccs
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
会不会封号啊用CAP里面的图片2模型,, 3 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一