准备尝试ChatGPT-Image2,但写不出好的提示词
想要一个全是提示词的楼,各位佬友能分享一下你的焚决吗。 4 个帖子 - 4 位参与者 阅读完整话题
GE - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第168页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 3541 篇相关文章 · 第 168 / 178 页
想要一个全是提示词的楼,各位佬友能分享一下你的焚决吗。 4 个帖子 - 4 位参与者 阅读完整话题
手机答题,需要远程答题: 手机打开 gemini 视频,它答几道题后就死循环了。判断题都说正确,选择题都选 A... 豆包第一次错 12 个,第二次错 8 个,惊险通关。 写真生成: 媳妇用豆包生成的写真可以以假乱真。(有女友的可以去试试,豆包甚至有个写真广场,模板一键生成) 然
试用到期了gemini enterprise对话居然还能正常使用,好神奇 3 个帖子 - 2 位参与者 阅读完整话题
把找到的几个中转渠道接进了newapi,但是每当会话上下文大概200k,就会触发unexpected status 413 Payload Too Large: openai_error, 这个会话就废了 然后我试着给1penal的自带的反代程序OpenResty的性能配置里面把
之前用Grok觉得comprehensive模式的提示词不错,借鉴了下融入到Gemini的自定义指令中,保存后开启新的对话就可以生效了。 Gemini的思维链是英文的,阅读不是很方便,这个提示词能大体上反应思维链中的内容,但注意不是逐字翻译的。 Gemini App Web端一直
相关链接: Agents that remember: introducing Agent Memory Memory · Cloudflare Agents docs 1 个帖子 - 1 位参与者 阅读完整话题
正在看kimi的订阅,主要用于coding、claw这类通用agent场景,没看懂 kimi-code 是不是就是 kimi-k2.5?有没有懂的佬友求解答 1 个帖子 - 1 位参与者 阅读完整话题
先来看最好的几张,第一张真的很好看所以我多搞了几张 然后就是二次元原图 但是有些二次元转三次元会说太幼了 2 个帖子 - 2 位参与者 阅读完整话题
stacksocial.com Get Rid of Annoying Ads & Protect Your Device from Malware with This Advanced... Get rid of annoying ads and protect you
有大佬知道怎么解决这个问题吗,就上传了一张图片 3 个帖子 - 3 位参与者 阅读完整话题
IT之家 4 月 19 日消息,英伟达推出了定制版 GeForce RTX 5090 显卡抽奖活动,该显卡采用《识质存在》(PRAGMATA)风格装饰。 官方贴文表示,用户只需通过评论“PRAGMATA RTX”即可参与抽奖。此次推广是该公司社交媒体常规营销活动的一部分。 推文内
目前用了几天hermes,感觉还可以,就是很烧token。有没有佬对比过genericAgent,好用吗?能否替代hermes?bug多不多? 6 个帖子 - 4 位参与者 阅读完整话题
RT,左侧只能开启chat和查看已经创建的stuff,还没有进入自己创建的Gem的入口 1 个帖子 - 1 位参与者 阅读完整话题
claude code 经常用着用着就出来报错Request too large (max 32MB),然后只能打开新对话才能继续,有什么办法解决吗 2 个帖子 - 2 位参与者 阅读完整话题
背景: 看论坛有的模拟pixel手机都可以领取gemini优惠,但是为啥我的真pixel 10却无法领取。还是一手新的pixel手机却无法领取优惠 账号状态: 1.美区新的Google账号,没有绑卡也没有付费记录 2.也没有加入其它家庭订阅套餐 疑问: 1.是不是领取需要使用家宽
能让canvas和figma股份暴跌的claude design,我看有周限的提示: 查了一下usage limits的文档,没有找到关于Design方面的限制说明。 请问大家: 1、design与web chat 和 cc是不是共享额度? 2、pro大概能有多少次? 3、这几天
你们认为 Seedream 5.5 或者 6.0 有多大可能超越 GPT Image 2? 未来几个月之后的 Kimi/DeepSeek 有多大可能也开始说稳稳接住? Claude 的验证会不会越来越严?你们现在会考虑给自己注册一个 Claude 账号吗? 3 个帖子 - 2 位
一个免费版的gpt账号 让它用image2重新生成后就变成了 也可能是1.5好像还是有些错别字 3 个帖子 - 3 位参与者 阅读完整话题
让agent越用越顺手, 这个初衷是好的, 方向也对. 但是持久化上下文 自动进化skill, 这样的实现思路, 只会让上下文和token的使用效率降低. 你比方说真正有用的需要反复调用的能力 需要持久化的能力, 我还需要hermes帮我自动建立? 难道不是我自己主动去写skil
如题,可能以前的大模型推理能力不足,在设计agent的时候可能需要去规划,执行,react的过程,但好像现在这些能力已经是大模型的基本能力了,还需要去设计很复杂的agent嘛 6 个帖子 - 5 位参与者 阅读完整话题