如下图,让 Claude code 从 开源项目 screenshot-to-code 中,理解代码逻辑,制作了 /screenshot-to-code 技能。(包含出图,以及截图与设计图对比,矫正一次)
其中 gemini 使用 gemini-cli, gpt-5.5 使用 codex, deepseek 使用网页。其他均使用 claude-code + 对应模型
再其中一下: claude 额度不多,出图后直接 ctrl-c 没让它矫正。
deepseek 是把技能复制到网页中,忽略了截图矫正的能力,它自己进行了很长时间的‘反刍思考’,我以为它死循环了。但也出了图,算它 1次直出 + 0.5 次矫正。
表现如下:qwen, gemini, chatgpt 的 1次支出代码+1次矫正, gpt-5.5 最强。
网页版的 deepseek-vision 跟 gpt-5.5 在一个水平。
期待 api 版本
[隐私泄露,图删了,抱歉, 有空了重新补个测试图]
:PS, 测试小米 mimo, 它睁着眼睛说瞎话,给我复刻了一个 Java 虚拟机参数配置面板。感觉是有 ‘USDT’ 直接触发安全限制了
1 个帖子 - 1 位参与者