没招了,gemini一直自动给我调用canvas
gemini老是自动给我调用canvas,一调用前面的对话他就失忆了,就开始胡乱回答了,今天好几次了,一个对话聊的久了就会这样,只能关闭这个对话,不然一直调用 5 个帖子 - 5 位参与者 阅读完整话题
GE - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第79页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 3164 篇相关文章 · 第 79 / 159 页
gemini老是自动给我调用canvas,一调用前面的对话他就失忆了,就开始胡乱回答了,今天好几次了,一个对话聊的久了就会这样,只能关闭这个对话,不然一直调用 5 个帖子 - 5 位参与者 阅读完整话题
看到最新的D牢师竟然拥有仅次于gemini3.1Pro的世界知识,不禁感慨这些LLM是怎么存下这么多东西的 20 个帖子 - 15 位参与者 阅读完整话题
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
提示词来源 gpt image 2 生图评比大赛 搞七捻三 规则 必须使用 gpt image 2 在评论区留下你的提示词和对应的图片即可 根据点赞数量排一二三名(无关回复不计入统计) 截止到本周日中午十二点 只发图不发提示词的不计入统计 奖品 第一名 星辰200刀兑换码、黑与白
https://blog.cloudflare.com/artifacts-git-for-agents-beta/ entire git protocol engine is written in pure Zig (no libc), compiled to a ~100KB
https://blog.cloudflare.com/artifacts-git-for-agents-beta/ entire git protocol engine is written in pure Zig (no libc), compiled to a ~100KB
现在这个ChatGPT Image 2的审核,本喵感到非常迷惑 它的审核应该是分两层的。首先会对输入的提示词进行一个审核,然后提示词审核过了之后,就会让它去生成图片。 第二层的审核应该就是对生成的图片进行审核。 现在的问题是,第一层审核很容易过,但是第二层的审核超级迷惑。有时候尺
我在 aistudio 发现了一个很奇怪的事情,就是 gemini-flash-latest 是 gemini-3-flash-preview 的 alias ,但两者定价不同,前者输入、输出分别是 0.3 、2.5 ,后者是 0.5 、3.0 ,不知各位是否留意到这个,应该放心
这张太神了,立马就找gpt高清化处理了一下,然后分享过来: (克劳德酱真的有点生气的样子 logo最萌的一次 我已融化ww ) 还有焚决环节: 本来就是他画的,结果受到上下文污染。对话模型是不认识这些的,绘画模型有自己的世界知识 结果我们的绘画模型听从了对话模型的描述,大概按照
请问,调用 gpt-image-2 通过 api 的方式使用,请问用什么 app 呢? 要支持图片的处理哦。 open webui , 只能上传,不能做局部图片的修改。 请问你们用的哪个?
请问,调用 gpt-image-2 通过 api 的方式使用,请问用什么 app 呢? 要支持图片的处理哦。 open webui , 只能上传,不能做局部图片的修改。 请问你们用的哪个?
缘起 我在开发一套新的 Harness Agent ,一开始当然是 VibeCoding——我只写设计和需求,代码由 AI 来改。这样支撑了大部分特性的开发。直到有一天 Codex 反复解决不了一个我认为比较简单的问题,并且反复在同一个地方犯错。我就知道项目需要一套工作流来维持它
请问,调用 gpt-image-2 通过 api 的方式使用,请问用什么 app 呢? 要支持图片的处理哦。 open webui , 只能上传,不能做局部图片的修改。 请问你们用的哪个?
以前用命令行为每个模型启动一个 llama-server ,管理起来挺麻烦的,尤其是切换模型看日志的时候。 最近写了个 Web 管理工具,核心功能: 多实例管理 - 同时运行多个 llama-server ,通过卡片管理 实时日志 - SSE 推送,启动/停止自动切换到对应实例
各位佬好, 最近在做自己的一点小agent开发,主要还是用langchain框架,之前对接的模型要么是本地部署,要么是租算力平台部署,后期发现了IFlow提供免费的模型api调用,可惜4月中旬已经关停了。 目前还有什么平台可以提供免费的模型api调用吗?不需要顶尖的模型,只是一些
展开查看提示词 (点击了解更多详细信息) 11 个帖子 - 9 位参与者 阅读完整话题
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
这是我最近使用了这个gpt新的这个图像模型。我主要使用的这个场景就是问他这个数学问题的时候。他给我配一些图片。然后除此之外就是生成一些我推的角色的美图。 然后我就发现这个gpt-image-2的数学出图能力很差(大家都差),如下: 这个我是真的绷不住了。但是也有还行的: 既然数学
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro