xiaomi的这个模型太溜了,答非所问
Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem
llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 215 篇相关文章 · 第 2 / 11 页
Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem
我把grillme的机制融入到了我的cs-brainstorm里了,然后我发现了一个很好用的用法。 情景就是:我确实很有想法,想法多到我自己都记不住,这样的话我很难完整地交代给AI。grillme就能让AI一直问,然后我一直输出,太爽了太爽了。 爽到最后AI都说要不要停一停去开干
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
导师搞了台DGX Spark,说要部署一个大模型进去,关于DGX的中文部署教程目前并不算多,和各位佬友分享一下这次部署过程完整,顺手写一篇教程。 这里计划部署的模型是 AEON-7/Qwen3.6-27B-AEON-Ultimate-Uncensored-NVFP4 · Hugg
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
最近搞了个小项目,给一段 prompt 加一份长文档,自动出一版可以继续编辑的 PPT 草稿。本来以为最难的部分是 prompt 设计或者 PPT 渲染,结果 80% 的时间都耗在了文档解析上,记录一下踩过的坑,顺便想请教下各位在这块都是怎么处理的。 场景大概是这样:用户上传的资
[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优
[开源] OpenTalking:面向实时对话的开源数字人产线 (LLM+TTS+WebRTC) V 站的各位开发者朋友们大家好!今天想和大家分享我们开源的一个新项目: OpenTalking 。这是一个开源的实时数字人框架。 开发数字人对话产品时,大家往往会遇到一个痛点:各种优
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
最近搭了一个 LLM API 中转站: zerofra.me 地址: https://api.zerofra.me/ 目前主要支持: Codex / GPT 系列模型 Claude 系列模型 现在刚上线,想先邀请大家试用一下,也顺便帮忙反馈问题。 新用户注册后送 $10 测试额度