偶遇电视台拍摄
话说现在看电视的可不比以前了 4 个帖子 - 4 位参与者 阅读完整话题
现在 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第104页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 3456 篇相关文章 · 第 104 / 173 页
话说现在看电视的可不比以前了 4 个帖子 - 4 位参与者 阅读完整话题
最近研究 skill ,sdd 有感。写代码是确定性的逻辑思考,现在天天揣摩 ai 是咋想的,揣摩完又没啥好的验证方法,很没意思。
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
官网的thinking和auto模型都变成灰色且无法选择了 只有fast模型可以正常使用 (以前貌似也发生过,希望能尽快恢复吧) 2 个帖子 - 2 位参与者 阅读完整话题
18年还能卖200多个,现在成交价就不到80了,再跌下去就要亏本了 24 个帖子 - 24 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
最近研究 skill ,sdd 有感。写代码是确定性的逻辑思考,现在天天揣摩 ai 是咋想的,揣摩完又没啥好的验证方法,很没意思。
最近研究 skill ,sdd 有感。写代码是确定性的逻辑思考,现在天天揣摩 ai 是咋想的,揣摩完又没啥好的验证方法,很没意思。
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
现在注册 Creem 要邀请码了 求好心人给个 Creem 邀请码
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
最近研究 skill ,sdd 有感。写代码是确定性的逻辑思考,现在天天揣摩 ai 是咋想的,揣摩完又没啥好的验证方法,很没意思。
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
最近研究 skill ,sdd 有感。写代码是确定性的逻辑思考,现在天天揣摩 ai 是咋想的,揣摩完又没啥好的验证方法,很没意思。
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题