模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第130页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第130页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2886 篇相关文章 · 第 130 / 145 页

Qwen3.6-Max-Preview 新模型让我陷入沉思

甚至他还搜索了阿里的网站 还是说没有 谷歌回复是正确的 是巧合么 我们再问阿里一次 其他能力不说 网络搜索肯定有点问题 第三次尝试 恭喜他终于知道自己是哪天出生的了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:21:42+08:00

求助:在Cursor中无法使用Claude模型

如图,我这边显示有claude模型也开启了Tun模式,而GPT模型非常快,而使用Claude模型则是一直卡在这里 11 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:18:12+08:00

3级了,再次奉送福利Key——先蹬先用——第二期

gpt模型为主;手里两张Key,先扔出第一张Key,直接用,目测有500刀+: 额度不多,请留给有用的佬们 剧透 避免机器人,有个解码很简单,或者使用all-api-deck导入(偷偷推荐一下我的开源工具): ALL-API-DECK 步骤 (点击了解更多详细信息) 好了,第二个

tech linux.do 2026-04-20 16:13:11+08:00

codebuddy CN挂了么?

正好在使用codeBuddy CN的免费积分体验GLM5.1,发现模型提示500,网站用量也访问失败了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:12:01+08:00

快讯:Qwen3.6-Max模型发布,在六项主要编程基准上取得最高分

ithome.com 新一代“家族旗舰”:阿里 Qwen 3.6-Max 预览版发布 - IT之家 据介绍,该模型是新一代千问旗舰模型的早期预览版,用户可以在 Qwen Studio 进行交互对话,并且即将通过阿里云百炼 API 以 qwen3.6-max-preview 的名称

tech linux.do 2026-04-20 15:58:09+08:00

[Local LLM] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:56:30+08:00

GPT PRO100刀为什么没有思考过程?

使用pro模型的时候看不到思考的过程,也没有追问,就显示一个正在推理,我记得这个好像是很久之前才会这样吧?自从哪一次更新后就修了,所以这个是bug嘛还是这个套餐就是阉割版啊? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-20 15:55:28+08:00

新一代“家族旗舰”模型:阿里 Qwen 3.6-Max 预览版发布

IT之家 4 月 20 日消息,4 月 20 日(今天)下午,阿里宣布 Qwen3.6-Max-Preview 正式发布。据介绍,该模型是 Qwen 系列新一代旗舰模型的早期预览版,用户可以在 Qwen Studio 进行交互对话,并且即将通过阿里云百炼 API 以 qwen3.

tech www.ithome.com 2026-04-20 15:53:53+08:00

[问与答] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:50:13+08:00

佬们每月用多少token,大概消费多少R

我每个月得15亿token,但是模型不稳定,老得换,消费200以里,用的gpt5.4多些,opus4.6,gemini备用,佬们都怎么用呢 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-20 15:49:44+08:00

Ark公益站的模型怎么用在Claude code里面

ark API是不是只有在网站内的操练场的速度是快的啊,我API代到CC里面的时候生成的好慢,求大佬指点一下,有没有快一点的方法 6 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-20 15:48:46+08:00

Qwen3.6-Max-Preview发布

今天,我们发布下一代旗舰模型的早期预览版:Qwen3.6-Max-Preview。 相比 Qwen3.6-Plus,本次模型带来了多项关键能力的显著提升: 在六项主要编程基准上取得最高分 更强的世界知识和指令遵循 更优的真实场景智能体与知识可靠性表现 本次发布支持 preserv

tech linux.do 2026-04-20 15:48:04+08:00

解禁模型目前有哪些?

需要做逆向项目,但是公网模型都不允许搞这些,之前看到有很多第三方做了模型解禁,可以推荐一下比较好用的是哪个么?我记得有项目可以让模型解禁,但是本地电脑跑不起来可能。 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-20 15:40:25+08:00

[问与答] 想在本地部署 OCR 服务,解析美团的外卖订单截图,求推荐一个好用的 OCR 模型

公司做的是美团业务,需要定期解析一批美团的订单截图(也有一些是手机相机拍的订单页面图片),提取出其中的订单号码。 我试用了下腾讯的 ocr 识别成功率很高,就是太贵了,图片量很大遭不住。哪位老哥研究过 OCR ,能不能推荐一个适合本地部署的,公司有 5060 显卡。

tech v2ex.com 2026-04-20 15:37:00+08:00

[☕Vibe Coding🤖] 反重力的模型被降智了吗?

反重力的 claude opus4.6 最近用起来没有之前智能,大家有同感吗? 是不是 opus4.7 新版本的把智力拿走了? 反重力现在只有 opus4.6 没有 opus4.7 ,也不知道什么时候更新。

tech v2ex.com 2026-04-20 15:14:52+08:00

[AI Tools 精品 AI 工具导航] antigravity 为啥用 claude code 模型 总是报这个

Agent terminated due to error You can prompt the model to try again or start a new conversation if the error persists. See our troubleshooti

tech v2ex.com 2026-04-20 15:12:31+08:00

cli-proxy-api + 中转站领的鸡蛋 = 大模型免费用是否可行?

最近中转站爆发,天天一堆新开的站,基本都能注册免费送些额度。 那我搭建一个 CPA 服务,配置上中转站领取的 api 和 key 。 再搞一个监控服务(我记得 V 站有人发过这类工具),盯着 V 站或其他论坛帖子,有鸡蛋可领取就提醒。岂不是可以天天领鸡蛋,大模型天天免费用,我觉得

tech www.v2ex.com 2026-04-20 15:11:12+08:00

关于 Codex 的 memory,以及其他用 gpt 模型的 cli 推荐?

感觉 codex 的 cli 和 cc 差了不是一星半点( 源码都漏了也不抄 ) codex 似乎没有那种 CLAUDE.md 的机制?有一些回答风格很奇怪,总是会按照写 md 文档一样回答,但是这样在控制台里面可读性很差 我在本地创建一个 MEMORY.md,指定回答风格,然后

tech linux.do 2026-04-20 15:10:51+08:00

有没有开源大模型的评测网站?

有没有本地部署的开源大模型的评测平台?或者,可以获取那些可个人本地部署的大模型的token?我想测试测试,个人本地部署的大模型的能力。比如,最新的gemma4 之类的,不同级别的模型。 想实际验证一下,部署本地开源模型,是否可行?是否值得? 没有亲身测试,实在是不敢花那么多钱!

tech linux.do 2026-04-20 15:10:34+08:00

百度千帆 Coding Plan Lite 分享第三弹

在配置文件中指定 Model Name,可实时切换模型。当前支持配置的 Model Name: 可用模型 deepseek-v3.2 kimi-k2.5 glm-5 minimax-m2.5 ernie-4.5-turbo-20260402 接口地址 OpenAI 兼容: htt

tech linux.do 2026-04-20 14:52:01+08:00