分享一个自用的反代的 image2 接入codex的 skill

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社...
分享一个自用的反代的 image2 接入codex的 skill
分享一个自用的反代的 image2 接入codex的 skill
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
  • 我的帖子已经打上 开源推广 标签:
  • 我的开源项目完整开源,无未开源部分:
  • 我的开源项目已链接认可 LINUX DO 社区:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


今天不少佬友问反代出image2后如何生图,我记得image2出了不久已经有不少佬友找到方法了,这里分享一个自用的skill,image2发布的时候匆忙做的,不是最好的,欢迎大家补充。

使用网页生过图的佬应该知道,网页的生图模型不只是一个传参后直接生图模型,而是一个agent。

主模型会根据生图请求自行完成网络搜索,思考等工作,包括自行找参考图(推测)。我这里效仿官方内置skill做了一个cpa代出来的api可用的。

这是一个codex中使用自然语言生图的skill,在其他agent里面同理,api和url改下就行了。力求和gpt网页端近似的体验

配置

默认情况下,Skill 会读取 Codex 根目录里的配置:

  • auth.json
  • config.toml

它需要能从里面找到:

  • API Key
  • 当前 Provider
  • Provider 的 base_url

如果佬友的生图模型不走全局设置的url和api key,可以自行修改,或者直接告诉ai把skill拉取到本地后做一个自己的定制版本

  • 个人使用的环境是cpa代的api接入codex,支持官方api的传参调用。具体文档参考官方文档:Image generation | OpenAI API
    本skill自带代码已经集成大部分参数

怎么用

安装后,正常和 Codex 说话就行。比如:

用 生图技能 生成一张 2K 的电影感照片:雨夜东京街头,霓虹反光,真实摄影风格。

带参考图时可以这样说:

参考这张图的构图和人物姿势,生成一张暖色电影感插画,保持主体姿态,但不要照抄原图。

需要真实地点、产品、建筑、历史服饰这类容易生成错的东西时,可以直接要求 Codex 先查资料,技能已经要求ai在任何非常识性的图片生成都要查资料:

先查一下花江峡谷大桥的结构和地形参考,再生成一张高空俯视图,尽量保持真实桥型和峡谷环境。

说明

这是个人自用 Skill 的整理版,不是一个一定适用于所有环境的skill。个人的环境是cpa接入codex。不同反代和 Provider 的兼容程度可能不一样。

仓库

github.com

GitHub - yc-duan/api-image: Codex skill for API-based image generation through...

Codex skill for API-based image generation through OpenAI-compatible providers

2 个帖子 - 2 位参与者

阅读完整话题

来源: linux.do查看原文