[推广] LiteLLM 接 AWS Bedrock 做了个 Claude API 平台,现在找种子用户, V2EX 用户专属 100 元无门槛优惠券
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第38页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 934 篇相关文章 · 第 38 / 47 页
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
对这些不是很了解,我同一个局域网api调用模型生成比较慢,我主要是学习一些开发内容简单使用有个接口用的需求,有什么方法解决么,当然我的机器只是个配置很一般的笔记本,这个是参数列表,都是什么意思 这个下边这个请求时候会变成生成状态,这个红色框的状态代表什么意思 1 个帖子 - 1
有人把AI装进U盘了,还是无审查版的! 这个开源项目USB-Uncensored-LLM直接把Gemma、Qwen等大模型塞进U盘,插哪台电脑就在哪跑,Win/Mac/Linux全兼容,完全离线,零联网,聊天记录还能持久保存。 最骚的是:模型只需下载一次,多平台共用,不重复占空间
最近看了很多佬友和网络上对glm 5.1以及kimi 2.6的评测,我个人由于生产环境原因不太敢直接在我的代码中使用这些模型,包括gpt和opus我也是多次审查使用。 请问各位使用较多的佬友,这些模型是否基本已经达到了opus4.5满血的水准?还是尚有差距呢。这里的评判标准不仅仅
我做了一个叫 huancode.com 的 Claude API 平台,现在刚上线,在找 独立开发者 和 中小企业里的 AI Coding 布道者 做种子用户。V2EX 用户专属福利:注册后联系我或评论,赠送 100 元 无门槛体验额度,使用过程中的感受和需求在本帖回复反馈就行。
一、环境及提示词 订阅情况: GLM-5.1 : 智谱国内站 新Max套餐(460元)。 Kimi-k2.6: kimi 199元档位套餐。 Claude Opus-4.7: Max满血中转(经测试未降智且支持1M上下文)。 本次测试中CC均设置为200K上下文窗口。毕竟这个小项
k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐 附上周的速度,是真的爽啊 6 个帖子 - 1 位参与者 阅读完整话题
max年费用户都没办法单线程使用glm5.1,这到底再给谁提供服务? 下面两个请求全失败了。首token的延迟也惨的离谱。 从中午开始一直在发继续,发到现在。四个小时了,还在超时。 15:59更新 14次了 16:01更新 429?我连重试都能触发429? 6 个帖子 - 1 位
关注了一周的 GLM 和 阿里云的 Coding Plan 了,根本抢不到。
太影响心情了,花钱买罪受,佬友们有无正常可用的。 6 个帖子 - 1 位参与者 阅读完整话题
kimi和glm和阿里的套餐哪个好用?gpt凉了考虑国模 16 个帖子 - 13 位参与者 阅读完整话题
自己是claudepro会员,让它写代码的话实在是不够用,又弄了个glm,怎么让opus指挥glm写代码呢,都用claudecode的话,有没有啥好的工具,目前在用cc-switch,但好像实现不了这种场景 1 个帖子 - 1 位参与者 阅读完整话题
到现在为止,阿里云coding plan里的模型还是没啥变化 6 个帖子 - 6 位参与者 阅读完整话题
瑞银旗下分析师发布一份近 40 页的研报,首次覆盖中国北京 AI 公司智谱,给出「买入」评级,目标价 1160 港元。报告核心论断直截了当:智谱的模型研发与商业化路径,与全球 AI 头部公司 Anthropic 高度相似——因此,分析师将其定位为「中国版 Anthropic」。
关注了一周的 GLM 和 阿里云的 Coding Plan 了,根本抢不到。
前两天上线的,但是好慢,其次就是glm系列估计太火了都容易超时,我这边换成minimax2.7就能用了,难顶。 还有一个是好像这种速度慢的模型动不动就喜欢停止,我是在claude code cli中用的,很奇怪,遇见很多次了。之前用同一个中转的ops也是,慢的动不动停止,用fas
codex 被砍的等于没有了,看看glm能不能顶上。我看glm官方url 有对接cc的方法,但第三方的newapi可以直接对接吗,是不是只要改了url 为模型市场里a\ 的接口地址就行,不行就只能换公益站了吗? 1 个帖子 - 1 位参与者 阅读完整话题
当前订阅是GPT-Plus,明显感知不够用。打算买个国模备用了。 佬友们讨论下,买不到的就不说了,kimi和minimax更推荐哪个呢 1k一年的那个套餐,每天都大概可以用多久呢? 17 个帖子 - 11 位参与者 阅读完整话题
都在讨论海外费用比中国国内贵 129% 大背景,claude费用太高花费不起 大家看看这个帖子,笑死我了 笑死我了,uber 搞七捻三 由于使用claude开发代码,uber已经消耗完了2026年度的ai预算, CEO和CTO表情无奈双手叉腰 [image] 9 个帖子 - 8
因为GLM国内版抢不到,国际版最近涨价,就图便宜Minimax官网买了个最便宜的计划,拿来用claude Code。我也没有看到过什么恶评。但是自己用是真的难崩。 我主要用来生成数据清洗和分析的代码,所以code base其实都是很简单的,之前无论是用cluade Sonnet