模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2437 篇相关文章 · 第 3 / 122 页

mimo干什么好一点,另外windows平台用什么agent

想问下各位佬友,mimo模型适合做什么。。。代码比不上codex,逆向比不了v4。。。另外还想问下因为平台的原因openclaw和爱马仕都用不了,wsl方面我还是小白。。。docker还需要镜像真难搞。。。先谢过了。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-03 20:33:00+08:00

为啥CPA image-2模型调用524

通过new-api调用的CPA号池,其他模型都可以调用,就 gpt-image-2 没有成功过 CPA是cf隧道连接,是不是因为cf的连接时长默认是两分钟导致的 佬们都是怎么用GPT的生图模型的 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-03 20:11:05+08:00

都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech www.v2ex.com 2026-05-03 19:56:44+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 19:10:12+08:00

使用Codex模型导致的注释乱码

cnb.cool/InspireWorks/ListestEditor 之前有一次把readme改乱码了,没注意,他把注释都改乱码了,现在才发现,我该咋办?有啥补救的办法吗?有啥办法不花token清注释?我用了Git,但是当时改乱码了没发现,后续还改了很多bug,没法回退。反正全

tech linux.do 2026-05-03 19:06:05+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 19:00:17+08:00

Claude Code Desktop支持第三方模型了,但是体验感不怎么样

这次可以跳过强制登录,直接使用第三方的模型了,你们用了吗 感觉不怎么样呢 没什么特别的亮点,有有没有大佬去制作一个中文语言包呢,方便一下佬友们使用! 谢谢 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-03 18:59:00+08:00

Token Plan 免费 商汤日日新

日日新 SenseNova 日日新 SenseNova - 商汤大模型 商汤日日新大模型,原生多模态,突破技术边界 可用三个模型 24 个帖子 - 17 位参与者 阅读完整话题

tech linux.do 2026-05-03 18:47:04+08:00

有什么方法可以蒸馏到GPT?

实验室有个项目需要蒸馏GPT到开源模型,需要GPT的思维链。但是用api或者官网好像都蒸不到GPT的思维链?网页的那个是总结过后的,也看不到具体思考过程。求有相关经验的pro指点 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-03 18:26:08+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 18:10:17+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 18:10:17+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 18:10:17+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 18:10:17+08:00

[程序员] 都说 Anthropic 不做人,现在国产模型厂也不做人

潜水老玩意冒出来…首帖没想到竟是吐槽 事情是这样的… 某 G 开头的模型厂的 coding plan, 4/22 号改了用户协议,4/30 号老 plan 下架。 我今天 ( 5/3 )登陆控制台才看到弹窗。 老 plan 每 5 小时 600 次调用,没有 weekly cap

tech v2ex.com 2026-05-03 17:46:07+08:00

使用trae进行ai编程,从效果和速度等方便吗来看使用哪个ai模型编程效果更好

目前模型如下,还有哪些可以每个月白嫖一部分模型,比如kiro这样的,Antigravity最近回答老是无响应,或者哪个模型编程性价比高,也可以使用自己的api, Doubao-Seed-2.0-Code Doubao-Seed-1.8 Doubao-Seed-Code MiniM

tech linux.do 2026-05-03 17:29:59+08:00

问一下各位佬,在codex插件中的会话中切换模型 性能大概估测会影响多少?

听说在会话中切模型 模型性能就会降低 有没有佬测过或者预估大概会降低多少的 有个会话用久了 会话中一堆记录 能切模型么 或者有好方法转新会话吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-03 17:19:08+08:00

什么 AI 合适拿来练口语?

如题,现在主流的语音模型感觉智力都不太行啊 。ChatGPT 语音还在用 4o 模型,能即时响应但是只能聊点日常话题,Claude 语音响应很慢而且识别也有问题,感觉是个半成品,Gemini 语音稍微好一点但是是幻觉大王,和它聊天真像做梦似的 ,体验一圈下来体验最好的居然是 Gr

tech linux.do 2026-05-03 16:22:47+08:00

deepseek 的快速和专家模式

请问各位佬,deepseek 的快速模式和专家模式是背后对应的模型不同吗?快速是 v4flash,专家是 v4pro? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-03 16:14:18+08:00

求助codex或sub2api如何设置模型上下文长度和自动压缩

我用的是自建的sub2api反代plus账号,但是现在我找不到哪里可以设置模型上下文长度和自动压缩,我在本地输入/compact似乎也无法压缩上下文。我记得之前账号使用官方的登录的时候正常是300k左右上下文,可以自动压缩,换了自建就不行了 求问该怎么办 1 个帖子 - 1 位参

tech linux.do 2026-05-03 15:44:15+08:00

【自制】全球新闻0503

gpt便宜渠道一砍,直接砍到我大动脉,模型影响我之前规则的效果,所以修复了很久,顺带改了一些好改的东西。 后面还会继续优化当日快报部分和信源这些;之前有人评论说里面提到的国家翻译、内容都太西方了,因为很多拉到的新闻都是英文机翻过来的,考虑用国模或者其他方式再优化一道可读性会更好;

tech linux.do 2026-05-03 15:21:43+08:00