qwen喜欢加戏,但是也挺强
标题直接说的是模型品牌,没有具体说是哪个模型,因为它一直以来情感都挺充沛的 下图是3.6Plus的回答 这是潦草的手稿提取 内容基本正确 (GPT无论靠自己还是靠工具都不行,一塌糊涂) 任务只是完成提取内容。他自行在最后做了主要概念注解,看了一下,是全部正确的,除了非酋我并没有提
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第42页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2548 篇相关文章 · 第 42 / 128 页
标题直接说的是模型品牌,没有具体说是哪个模型,因为它一直以来情感都挺充沛的 下图是3.6Plus的回答 这是潦草的手稿提取 内容基本正确 (GPT无论靠自己还是靠工具都不行,一塌糊涂) 任务只是完成提取内容。他自行在最后做了主要概念注解,看了一下,是全部正确的,除了非酋我并没有提
大家来推荐一下给我玩 hermes 和 openclaw 的相关的模型呀,要聪明的,费用适中
大家来推荐一下给我玩 hermes 和 openclaw 的相关的模型呀,要聪明的,费用适中
从 我这个pro模型没有思考详情的情况很久了 继续讨论: 看到这个话题,终于决定把我之前攒的一个图发一下(4月22号) 除非我确实的确突然有了什么想法,不然的话,我根本看不到你到底思考了个什么,我也没什么好说的 大家有尝试过吗? 我的team现在已经没了() 8 个帖子 - 7
请问大家关于Gemini 3.1 pro的最佳编程ide,目前Antigravity也在用,考虑效率想另起一个ide跑vertex api key(300刀赠金快过期了),目前用的vscode的cline,体感并不是很好。cursor还的花钱。 3 个帖子 - 3 位参与者 阅读
改代码熬到了后半夜,突然想起有个免费模型可以领取,打算来尝尝鲜,结果刚出来3分钟不到,我填个申请理由的功夫就申请满了,看其他佬说这个效果也就一般,没想到这么抢手(不过幸好我抢到了atomgit的不限量deepseek ,明天下午起来尝尝咸淡) 5 个帖子 - 3 位参与者 阅读完
你们的会这样吗 还是说要怎么操作 2 个帖子 - 2 位参与者 阅读完整话题
大家来推荐一下给我玩 hermes 和 openclaw 的相关的模型呀,要聪明的,费用适中
大家来推荐一下给我玩 hermes 和 openclaw 的相关的模型呀,要聪明的,费用适中
视觉能力不输3 Flash 欢迎使用我的webui all-model-chat.pages.dev AMC WebUI 6 个帖子 - 3 位参与者 阅读完整话题
我发现 claude code 和 codex 这种 cli 都没得快捷键切换模型和思考程度 我只在 pi agent 上看到有对应功能。 按理说这个是很常用的功能呀 还是我不知道有这个快捷键呢? 7 个帖子 - 3 位参与者 阅读完整话题
我在hub.linux.do选了一些倍率0.1的渠道。然后在codex用的gpt5.4模型。用了一下发现,输出大段大段的英文,很显然不是gpt5.4。 35 个帖子 - 21 位参与者 阅读完整话题
给朋友们分享一个开发者友好型 API 聚合平台 「芝麻灵码」 。该站通道持续稳定,专为高频调用场景设计,计费规则透明且具有极强竞争力,企业个人均可接入。 「来就送 5 元 体验券,全模型皆可使用」 全能模型矩阵: Codex (OpenAI) : 基础倍率限时 0.1 (相当于官
有没有大佬和我发现一样的情况啊,只用CPA的team组建了号池,然后本地codex cli调用啊开发不可能被盗,怎么排名第一模型调用的是gpt-image-2呢? 从来没有生图,window的cpa最新版本 8 个帖子 - 8 位参与者 阅读完整话题
近几年ai发展的速度很快啊,我感觉最近我肩膀上那个从出生到现在一直自己在训练的那个本地模型,不是在调用可以在电脑上运行的模型,就是在思考怎么更好调用电脑上的模型。 以后要是脑机接口成熟了大家会不会给肩膀上那玩意加一个某家训练的模型,在肩膀上进行多模型协作呢 28 个帖子 - 18
最近看到很多人都在说ChatGPT的图片生成很厉害 效果很逼真 于是我也试了试 尝试生成了一个初音未来和谷歌云GCP联动的海报 果然很强 连底下的版权信息都能生成出来hhhh(x 1 个帖子 - 1 位参与者 阅读完整话题
大家来推荐一下给我玩 hermes 和 openclaw 的相关的模型呀,要聪明的,费用适中
IT之家 4 月 27 日消息,今天傍晚,阿里巴巴宣布视频生成模型 HappyHorse1.0 开启灰测。据了解,全球专业创作者和企业级客户可在 HappyHorse 官网和阿里云百炼平台注册使用,大众用户可在千问 App 体验。官网 720P 视频生成刊例价 0.9 元 / 秒
RTX 4090 本身是 PCIe 4.0 x16 设备 ,也就是显卡接口规格支持: PCIe 4.0 x16 对应理论单向带宽约: PCIe 4.0 x16 ≈ 31.5 GB/s PCIe 4.0 x8 ≈ 15.75 GB/s 项目 带宽 PCIe 4.0 x16 约 31
最近有佬给我推荐了hub.linux.do但是我添加模型的时候显示服务器内部错误,我尝试直接在公开模型进行对我的渠道关联但是也是失败的请问是我操作的问题吗还是站点内部发生了错误? 4 个帖子 - 2 位参与者 阅读完整话题