关于生成式UI工具实现与探索

作为前端开发,一直在研究AI生成式UI工具的开发和实践,现在已经基本成熟可生产,现在的基本通用的思路是: UI生成系统system提示词; 调用类似 UI UX Pro Max skill的工具给UI; 调用assets工具匹配设计图; system prompt → user prompt => ...
关于生成式UI工具实现与探索
关于生成式UI工具实现与探索

作为前端开发,一直在研究AI生成式UI工具的开发和实践,现在已经基本成熟可生产,现在的基本通用的思路是:

  1. UI生成系统system提示词;
  2. 调用类似 UI UX Pro Max skill的工具给UI;
  3. 调用assets工具匹配设计图;

system prompt → user prompt => html

以下是直出的效果:

zhichu-1
zhichu-3

最近想到一个思路,就是扩展一个plan规划模式:
根据user prompt生成页面规划,拆解成页面结构,经过评审,再生成html,避免"直接让AI写整页 HTML"时常见的信息架构混乱、copy 不到位、视觉令牌漂移等问题。

通过约束的规则评审通过之后,再生成,听起来挺合理,但是感觉结果貌似不理想:

  • 花费的时间和token更多;
  • 效果也没见得比直出更好(当然可能也跟规划和评审阶段的逻辑有关);

和上图一样的提示词,规划模式:

plan-1
plan-2
plan-3
plan-4
plan-5
plan-6
plan-7
plan-8

值得思考交流的是:

  1. 有没有必要加类似的规划评审流程?
  2. AI的底层模型现在或者未来可能本身已经对生成式UI有类似规划评审的优化,是不是在工具层加这个逻辑会是多余的?

2 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文