有没有cap代理codex用图片2的佬
会不会封号啊用CAP里面的图片2模型,, 3 个帖子 - 3 位参与者 阅读完整话题
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第62页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2588 篇相关文章 · 第 62 / 130 页
会不会封号啊用CAP里面的图片2模型,, 3 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
例如在cc中调用opencode会员里的各类开源模型,是不是怎么折腾都行?还是说这些第三方托管商会自己加限制?有大佬试过么? 7 个帖子 - 3 位参与者 阅读完整话题
本来还想改 models.json的 codex --model gpt-5.5 的时候出更新提示了 更新之后就好了 @fedora:~/codexCLI$ codex --model gpt-5.5 Updating Codex via `npm install -g @ope
如题,在更新cil到该版本后,使用非claude官方模型一直出现重连错误(我使用的是硅基流动,讯飞星辰,智谱等api),在聊了一两句话就会出现超时重试的提示,同api和key在opencode可以正常使用 无图抱歉(-人-) 3 个帖子 - 2 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
看到一段很有趣的话和评论,然后尝试让各个模型进行了续写。 OpenAI: 我们还能把模型能力再抬上去一些 DeepSeek: 我们还能把模型价格再打下来一些 达里奥: 这东西太危险了,只有像我们这种极度重视安全、有顶级技术的大厂,才知道怎么控制它 Google: 用的人太多了,我
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
写到一半真的绷不住,模型是qwen 3.5 plus(这就是为啥标的是qwen,白嫖的佬友的lite),看来是哈基米蒸多了 7 个帖子 - 7 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50
佬友们有没有什么“闪电般”快速的模型推荐,想做智能需求路由模型,所以意图理解能力要至少能用 9 个帖子 - 6 位参与者 阅读完整话题
正常对话就触发了. 有多少佬友触发了? 正儿八经开发,没有任何破限.使用grok搜索直接触发 更新5.4不会触发. 5.5就触发了. 佬友们 感觉要丸辣 18 个帖子 - 15 位参与者 阅读完整话题
求助 api 接口是啥,是通过api调用吗 ,没找到接口地址是撒 6 个帖子 - 6 位参与者 阅读完整话题
大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一