LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第38页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第38页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 934 篇相关文章 · 第 38 / 47 页

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 16:46:05+08:00

佬友们,LmStudio这些参数和这个状态代表了什么

对这些不是很了解,我同一个局域网api调用模型生成比较慢,我主要是学习一些开发内容简单使用有个接口用的需求,有什么方法解决么,当然我的机器只是个配置很一般的笔记本,这个是参数列表,都是什么意思 这个下边这个请求时候会变成生成状态,这个红色框的状态代表什么意思 1 个帖子 - 1

tech linux.do 2026-04-21 16:42:07+08:00

有人把AI装进U盘了,还是无审查版的!

有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间

tech linux.do 2026-04-21 16:39:47+08:00

国产模型与opus 4.5是否目前已经处于同一水准?

最近看了很多佬友和网络上对glm 5.1以及kimi 2.6的评测,我个人由于生产环境原因不太敢直接在我的代码中使用这些模型,包括gpt和opus我也是多次审查使用。 请问各位使用较多的佬友,这些模型是否基本已经达到了opus4.5满血的水准?还是尚有差距呢。这里的评判标准不仅仅

tech linux.do 2026-04-21 16:25:15+08:00

[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券

我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。

tech v2ex.com 2026-04-21 16:24:50+08:00

GLM-5.1 Kimi-K2.6 Claude Opus4.7横评对比

一、环境及提示词 订阅情况: GLM-5.1 : 智谱国内站 新Max套餐(460元)。 Kimi-k2.6: kimi 199元档位套餐。 Claude Opus-4.7: Max满血中转(经测试未降智且支持1M上下文)。 本次测试中CC均设置为200K上下文窗口。毕竟这个小项

tech linux.do 2026-04-21 16:12:47+08:00

KIMI开始频繁429,跟GLM坐一桌了

k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐 附上周的速度,是真的爽啊 6 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:00:02+08:00

智谱是完全不会搞QoS吗?

max年费用户都没办法单线程使用glm5.1,这到底再给谁提供服务? 下面两个请求全失败了。首token的延迟也惨的离谱。 从中午开始一直在发继续,发到现在。四个小时了,还在超时。 15:59更新 14次了 16:01更新 429?我连重试都能触发429? 6 个帖子 - 1 位

tech linux.do 2026-04-21 15:48:58+08:00

现在还有哪一个国产 Coding Plan 能买到吗?

关注了一周的 GLM 和 阿里云的 Coding Plan 了,根本抢不到。

tech www.v2ex.com 2026-04-21 15:41:40+08:00

glm速率限制这么厉害,真的没法用,擦汗

太影响心情了,花钱买罪受,佬友们有无正常可用的。 6 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:40:24+08:00

国产模型到底哪个值得订阅?

kimi和glm和阿里的套餐哪个好用?gpt凉了考虑国模 16 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:28:18+08:00

claudecode如何使用让opus指挥glm5干活

自己是claudepro会员,让它写代码的话实在是不够用,又弄了个glm,怎么让opus指挥glm写代码呢,都用claudecode的话,有没有啥好的工具,目前在用cc-switch,但好像实现不了这种场景 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:20:11+08:00

阿里云的coding plan看来是不上glm5.1了

到现在为止,阿里云coding plan里的模型还是没啥变化 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-21 14:48:14+08:00

瑞银评智谱为:中国版Anthropic 。GLM-5.1长周期任务开源全球第一,涨价30%后用量反增3倍

瑞银旗下分析师发布一份近 40 页的研报,首次覆盖中国北京 AI 公司智谱,给出「买入」评级,目标价 1160 港元。报告核心论断直截了当:智谱的模型研发与商业化路径,与全球 AI 头部公司 Anthropic 高度相似——因此,分析师将其定位为「中国版 Anthropic」。

tech linux.do 2026-04-21 14:47:04+08:00

现在还有哪一个国产 Coding Plan 能买到吗?

关注了一周的 GLM 和 阿里云的 Coding Plan 了,根本抢不到。

tech www.v2ex.com 2026-04-21 14:41:40+08:00

英伟达上线glm5.1了

前两天上线的,但是好慢,其次就是glm系列估计太火了都容易超时,我这边换成minimax2.7就能用了,难顶。 还有一个是好像这种速度慢的模型动不动就喜欢停止,我是在claude code cli中用的,很奇怪,遇见很多次了。之前用同一个中转的ops也是,慢的动不动停止,用fas

tech linux.do 2026-04-21 14:25:20+08:00

cc 可以调用第三方 newapi里的glm吗

codex 被砍的等于没有了,看看glm能不能顶上。我看glm官方url 有对接cc的方法,但第三方的newapi可以直接对接吗,是不是只要改了url 为模型市场里a\ 的接口地址就行,不行就只能换公益站了吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 14:23:44+08:00

GLM买不到的情况下,打算买备用国模,进来发表你们的看法

当前订阅是GPT-Plus,明显感知不够用。打算买个国模备用了。 佬友们讨论下,买不到的就不说了,kimi和minimax更推荐哪个呢 1k一年的那个套餐,每天都大概可以用多久呢? 17 个帖子 - 11 位参与者 阅读完整话题

tech linux.do 2026-04-21 14:04:30+08:00

GLM Code 海外用户蚌埠住了

都在讨论海外费用比中国国内贵 129% 大背景,claude费用太高花费不起 大家看看这个帖子,笑死我了 笑死我了,uber 搞七捻三 由于使用claude开发代码,uber已经消耗完了2026年度的ai预算, CEO和CTO表情无奈双手叉腰 [image] 9 个帖子 - 8

tech linux.do 2026-04-21 13:47:45+08:00

大家有拿Minimax 2.7 做Agentic Coding的吗

因为GLM国内版抢不到,国际版最近涨价,就图便宜Minimax官网买了个最便宜的计划,拿来用claude Code。我也没有看到过什么恶评。但是自己用是真的难崩。 我主要用来生成数据清洗和分析的代码,所以code base其实都是很简单的,之前无论是用cluade Sonnet

tech linux.do 2026-04-21 13:42:06+08:00