[问与答] 关于 notebooklm 替代产品的咨询
本人从事文字工作,日常需要在众多文本材料中,寻找某个短句的原文出处,并以此为依据升华总结。需要严格规避模型幻觉。notebooklm 可以很好满足需求。 但鉴于大家对 gemini 降智的讨论,并个人也感觉其在某些场景下,总结能力出现减弱。故想咨询有没有与其对标的产品,核心需求为
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 866 篇相关文章 · 第 1 / 44 页
本人从事文字工作,日常需要在众多文本材料中,寻找某个短句的原文出处,并以此为依据升华总结。需要严格规避模型幻觉。notebooklm 可以很好满足需求。 但鉴于大家对 gemini 降智的讨论,并个人也感觉其在某些场景下,总结能力出现减弱。故想咨询有没有与其对标的产品,核心需求为
coding plan哪家最好啊,求推荐。 glm一直想买,但是抢了好久抢不上。百炼、火山模型很多,阿里百炼就一个套餐,火山倒是选择多一些,但是不知道实际用量咋样。小米mimo的百万亿计划领了,目前在体验,但是感觉月度套餐限量这个点不够。kimi、minimax好像只有自己的模型
我买的glm套餐 送的体验卡 还有6张 麻烦领了的大佬帮我点个赞 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 3 位参与者 阅读完整话题
有没有佬用过kimi2.6的,觉得和glm比起来怎么样?好用我过下就光速上一个 12 个帖子 - 9 位参与者 阅读完整话题
上集回顾 [Qwen3.6]27B-FP8 VLLM本地部署主观个人测评 环境: WLS2 Ubuntu22.04 硬件: 4090 48G SGLang太佛系了,快一个月了还不更新正式版,需要好好挖掘pr。目前已经找到4090 48G本地部署的版本。 我测试了两个模型。以及DF
Spark 最贵,和后两者价钱有点儿区别,不过看起来都像是同一个方案,只是公版和各家自己牌子的区别而已? Spark 自带开箱即用的工具集,会有老黄家在 Spark 上才能用的工具吗? 用线对联 Spark 也能和另外两个机型,扩展使用 LLM ? 三者有什么产品硬件上的差异区别
果然做LLM还是要去企业做,学校还是太穷了,五一期间趁大家下班卡多,跑两篇neurips 11 个帖子 - 5 位参与者 阅读完整话题
Spark 最贵,和后两者价钱有点儿区别,不过看起来都像是同一个方案,只是公版和各家自己牌子的区别而已? Spark 自带开箱即用的工具集,会有老黄家在 Spark 上才能用的工具吗? 用线对联 Spark 也能和另外两个机型,扩展使用 LLM ? 三者有什么产品硬件上的差异区别
从 听了4年千本樱英文翻唱,我却突然感到反感…像是看到了14年抗战 继续讨论: 起因是在上述评论区已经燃起来的话题,我发表了这样一个观点 听了4年千本樱英文翻唱,我却突然感到反感…像是看到了14年抗战 物质承载其价值 价值受价值观扭曲和变形 然后就去找glm5.1聊天(用APP)
Spark 最贵,和后两者价钱有点儿区别,不过看起来都像是同一个方案,只是公版和各家自己牌子的区别而已? Spark 自带开箱即用的工具集,会有老黄家在 Spark 上才能用的工具吗? 用线对联 Spark 也能和另外两个机型,扩展使用 LLM ? 三者有什么产品硬件上的差异区别
Spark 最贵,和后两者价钱有点儿区别,不过看起来都像是同一个方案,只是公版和各家自己牌子的区别而已? Spark 自带开箱即用的工具集,会有老黄家在 Spark 上才能用的工具吗? 用线对联 Spark 也能和另外两个机型,扩展使用 LLM ? 三者有什么产品硬件上的差异区别
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
有没有,前辈告诉我 Gemini claude gpt会选择哪一个。 2 个帖子 - 2 位参与者 阅读完整话题
有个人在网上说一年200,给的是一个中转站链接,说是十几二十个人一起拼的,这种可信吗有用嘛,我目前对用量也不是很需求,学生没什么项目,主要是自己玩。这种可以吗 12 个帖子 - 10 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林