评价一下雷总送的MiMo Token
速度还可以,功能也还行,多模态、TTS都能用,API也很稳定,并发高一点也不怎么爆错。优点很多,缺点就是消耗的速度太快了,不管是七亿的还是十六亿的,基本上用不了几天就不够用了,再加上没缓存、Pro的倍率翻倍,薅完之后就是不太想续费(对我而言) 6 个帖子 - 6 位参与者 阅读完
还行 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 22 篇相关文章 · 第 1 / 2 页
速度还可以,功能也还行,多模态、TTS都能用,API也很稳定,并发高一点也不怎么爆错。优点很多,缺点就是消耗的速度太快了,不管是七亿的还是十六亿的,基本上用不了几天就不够用了,再加上没缓存、Pro的倍率翻倍,薅完之后就是不太想续费(对我而言) 6 个帖子 - 6 位参与者 阅读完
昨天泰国还行. 今天再试泰国的就不行了. 今天好不容易弄了一个法国的. 第二个法国的又收不到验证码了. 佬们. 到底哪个国家才行呢? 9 个帖子 - 6 位参与者 阅读完整话题
GoPay是不是这正在被老友们上强度,压根不能用呀 1 个帖子 - 1 位参与者 阅读完整话题
在改项目 也有可能是我没用过好的,额度勉强够用 不够的用反重力补一下 号池那边没有gpt5.5 但是你要让我用5.4 我不接受 因为被折磨过 之前就是开的fast xhigh 结果7分钟没了 7 个帖子 - 5 位参与者 阅读完整话题
是香港服务器不能访问了吗.我记得前几天还行那; 3 个帖子 - 3 位参与者 阅读完整话题
用着还行,GLM5写中等代码配合skills能用,占了个位置,后续可能也是会下架和阿里云一样。 2 个帖子 - 2 位参与者 阅读完整话题
这周突然心血来潮想着再注册个甲骨文,上次注册新加坡,这次韩国,一如既往一次成功,犹豫有没有必要升级开arm,突然发现开了不知道干啥,就没升级,就开了一台低配的机器,ssh成功后,ping了一下我记得好像不到100,震惊了,我上一台200多延迟,果断搭了个节点,昨天使用反重力,老是
今天看到 DeepSeek 4.0 刚发布,顺手接到自己这边跑了下,还可以,免费给佬友蹬 https://openaiapi.xyz key:sk-n9pAA64de311VINBWrIq3n3RISyjelnZuojtvowE3DMTCSvo 模型名:deepseek-v4-f
今天刚刚订阅的这个Plus,原先24年订阅过一年,但是没有现在的功能丰富 (我个人是轻度开发,所以用到的其实不是很多,而且还是间歇用的,以及有中转站兜底) 前几天一直在国模、OpenCode和GPT之间徘徊,看了看KIMI的价格以及GLM等的价格,以及他们的隐私政策(将用户的数据
测试一下5.5 本来做的还行 但是一看结尾 有点绷不住了 这玩意儿估计要伴随gpt很久了 3 个帖子 - 3 位参与者 阅读完整话题
想问一下各位佬,现在自搭中转站还行吗?无token可用的我爆炸了 2 个帖子 - 2 位参与者 阅读完整话题
之前试用过一阵子,对mimo模型的印象一直还不错,速度快,智力在我这里也还行。 所以趁着mimo-v2.5-pro出来,充了个standard订阅玩玩。 下面是在claude code中的真实使用体验: 速度好评! 我用来写前端代码,代码能力还可以,需求给明确的话,能够完成我的代
一直想做量化,自己花了一个月调研开发,然后完成了一个趋势跟踪的程序,使用 python 的 ccxt 库。 4 小时指标判断趋势,1 小时指标进场,不停的调整参数。 回测历史几年都很好,跑了 2 周,被黄毛嘴炮搞怕了,一直震荡止损。 一点正向反馈都没有,而且维护太花时间了,各种异
一直想做量化,自己花了一个月调研开发,然后完成了一个趋势跟踪的程序,使用 python 的 ccxt 库。 4 小时指标判断趋势,1 小时指标进场,不停的调整参数。 回测历史几年都很好,跑了 2 周,被黄毛嘴炮搞怕了,一直震荡止损。 一点正向反馈都没有,而且维护太花时间了,各种异
一直想做量化,自己花了一个月调研开发,然后完成了一个趋势跟踪的程序,使用 python 的 ccxt 库。 4 小时指标判断趋势,1 小时指标进场,不停的调整参数。 回测历史几年都很好,跑了 2 周,被黄毛嘴炮搞怕了,一直震荡止损。 一点正向反馈都没有,而且维护太花时间了,各种异
一直想做量化,自己花了一个月调研开发,然后完成了一个趋势跟踪的程序,使用 python 的 ccxt 库。 4 小时指标判断趋势,1 小时指标进场,不停的调整参数。 回测历史几年都很好,跑了 2 周,被黄毛嘴炮搞怕了,一直震荡止损。 一点正向反馈都没有,而且维护太花时间了,各种异
通过valtrogen 免费套餐搭建的hy2的节点服务器,通过ping0查看,既然是家宽服务器,速度也还行,还可以切换地区。具体教程就不发了,油管就能直接搜索到了 。 1 个帖子 - 1 位参与者 阅读完整话题
步骤很简单, 用notebooklm解析PDF, 让它生成一些关于漫画分镜的提示词 把提示词给任何一个生图PDF 2 个帖子 - 1 位参与者 阅读完整话题
今天看到一个小工具 rtk: GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero
最近做 AI 项目自己在用的一套大模型 API 中转,稳定、速度也还行,价格比较实在,分享给有需要的同学。 支持模型: Kimi 2.5 GLM-5 MiniMax M2.7 DeepSeek Qwen 国产模型自动调度 价格:¥1 / M Token 起 特点: 轻松一站式接入