想请教各位佬友,AI写小说总会出现前文未提及的剧情,这种是上下文不够长导致的吗,是否有较好的解决方案呢?
最近使用编写了一个小项目,主要功能为使用AI进行小说创作,但是经过多次修改和优化,前面几章的时候剧情还能够连续起来,但是后面会突然出现莫名其妙的内容,是前文完全没有提到过的; 想要请问各位佬友们,这种情况是AI上下文限制的硬伤吗,是否有较好的解决方案呢? 项目代码如下: GitH
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 249 篇相关文章 · 第 12 / 13 页
最近使用编写了一个小项目,主要功能为使用AI进行小说创作,但是经过多次修改和优化,前面几章的时候剧情还能够连续起来,但是后面会突然出现莫名其妙的内容,是前文完全没有提到过的; 想要请问各位佬友们,这种情况是AI上下文限制的硬伤吗,是否有较好的解决方案呢? 项目代码如下: GitH
API Error: 400 {“error”:“1m 上下文已经全量可用,请启用 1m 上下文后重试”,“type”:“error”} 一直提示这个要怎么解决啊大佬们 3 个帖子 - 3 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
使用号池的时候,频繁切换模型,有没有相关的skills来保证上下文不丢失 1 个帖子 - 1 位参与者 阅读完整话题
各位佬们,我有一个疑惑,我在vscode上面通过ssh链接了远程服务器,然后加了一个codex插件,那这里codex的聊天记录是在服务器端还是本地呀?我在本地的codex能找到服务器端的codex的上下文聊天记录吗?有没有知道的佬,求解答。 2 个帖子 - 2 位参与者 阅读完整
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
本人纯新手,991K的上下文确实很强但是费用是阶梯付费的越用越贵,我自己也用这个写了几个小工具,如果只是要求能用就行的只能说凑合,要好用的话难评,而且如果后续要更新写的工具bug是越写越多甚至是写了新的旧的完全崩了得全部重来 5 个帖子 - 5 位参与者 阅读完整话题
上文 t/1154274 ,应该是风控策略的问题,刚好一周,今天没再退出了,再观察一周看看
想问下各位佬友们 any对于一些长上下文或者有历史上下文的对话(?)就会偶发的在能用和retrying中横跳 但是新开一个对话就很流畅的相应回答了 想问下有佬友遇到这样的问题吗? 怎么解决鸭 为啥any老是报错retrying,偶尔能用一下 搞七捻三 [454b6447-789e
key填的应该没错 测试报错1m上下文 我是新手小登 不会设置哇 谢谢老友 15 个帖子 - 11 位参与者 阅读完整话题
各位佬有遇到retry的情况吗 在上下文150k左右的时候就会一直retry,然后重新新建一个对话就又可以啦,到底是啥问题呀 2 个帖子 - 2 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
如题,让CC写论文时经常涉及到大量的图片,在CC读图的时候,图片会被转成base64发送,然后这玩意应该会存在上下文历史里,图片一多就会顶到上下文限制,导致整个会话直接废了。有没有解决方案呢? 4 个帖子 - 2 位参与者 阅读完整话题
用的grok-4.20和grok-4.30测试。 用于大海捞针的文本是codex生成的,实际大小4668kb,估算token量1.5m,上传到grok,测试大海捞针问题,都能准确的答对。 但是我上传一部百万字小说,3047kb ,openai的分词网站估算token是0.89m,
网页版3.6plus新对话无上下文,直接就是猫娘形式的输出 昨天也有一个,问的问题是 xx有没有文雅一点的词语代替 ,上下文关联是表达喜欢和分手的成语有哪些 然后就这样输出了 真是ai的一股清流 4 个帖子 - 4 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了