qwen3.6 27b 本地编码测试
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
编码 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 123 篇相关文章 · 第 4 / 7 页
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
这是一篇分帖,主帖请见: 编码尝试:使用Brainfuck实现Brainfuck解释器 - 开发调优 - LINUX DO 前 水 言 终于从无穷无尽的ddl里面解脱出70%了,能有点时间继续写了! 先来给佬u们贴个成果截图: 自 举 自 举 自 总共套了4层: 最外层是 @so
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0
迫于之前买了阿里的 coding plan ,充了 2 年,暂时不打算买新模型。当时的 coding plan 只支持这些模型,编码的话,哪个最好呢。 模型名称 上下文长度( Tokens ) qwen3.6-plus 1,000,000 qwen3.5-plus 1,000,0