mini - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn
mini - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 994 篇相关文章 · 第 2 / 50 页
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
scala编程大家会选择用哪一个llm
有没有,前辈告诉我 Gemini claude gpt会选择哪一个。 2 个帖子 - 2 位参与者 阅读完整话题
现在感觉没有顶级 token 用的时候束手束脚的,还真像是赛博截肢
之前几个 GPT Plus 号额度跑完 + Gemini Ultra 摆烂的时候,整个人都懒懒散散的,有种不想动脑子的感觉。 现在上了 GPT Pro 20x 的车,GPT-5.5 额度充足的情况下,各种点子都出来了。浑身有劲,一天能蹬 1 亿 token。 另外,截肢这句话竟然
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
有没有佬比较过gork和gemini这俩谁搜索能力更强啊
有没有佬深度对比过Grok和Gemini的搜索能力啊,一个基于x的,一个基于google的,想知道谁搜的搜索更好用 9 个帖子 - 9 位参与者 阅读完整话题
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
说说个人目前使用的各家模型的感受
首先,说一下本人用ai的情况: Gemini的学生Pro DeepseekV4的api 自己本地部署的Qwen 27B & 35BA3B q4km 破甲版本 以前用的是GPT GROK提供“情趣”价值(普通账户 主用4.2 fast) Gemini 网页版 网页版的Gem
[Apple] Mac mini 配显示器,上 5K 还是高刷更重要?
[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林