从 2 月开始用 Opus 4.6,到这几天切到 4.7,一些感悟和困惑
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
Hi - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第16页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 442 篇相关文章 · 第 16 / 23 页
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
今天中午gpt5.5泄露的时候测试的gpt5.5的juice值是768,刚刚测了一下gpt5.4 xhigh的居然也变成768了 12 个帖子 - 10 位参与者 阅读完整话题
stream disconnected before completion: An error occurred while processing your request. You can retry your request, or contact us through ou
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
这算ai生图的gpt时刻吗 6 个帖子 - 5 位参与者 阅读完整话题
陆陆续续花了上万 RMB ,攒了点心得,也攒了一堆困惑。 1 、MAX 和 HIGH 之间的边界,一直摸不太清。 不知道什么场景下用 HIGH 就够了。让它帮我调个版式,HIGH 确实 OK ,但聊着聊着就会延伸到架构、流程优化——那这时候我是不是得立马切 MAX ?大家遇到这种
An error occurred while processing your request. You can retry your request, or contact us through our help center at ``help.openai.com`` (`
stream disconnected before completion: An error occurred while processing your request. You can retry your request, or contact us through ou
现在编程套餐这么火爆,zhipu, minimax等都供不应求,模型都是开源的,硅基流动怎么没听说有推出编程套餐?反而最近没有什么动作的样子,纯好奇。 4 个帖子 - 3 位参与者 阅读完整话题
我看很多中转站有thinking模型,比如Claude sonnet 4.6 thinking模型,claude code调用时会自动调用这个thinking模型吗 4 个帖子 - 4 位参与者 阅读完整话题
今天大善人又重置了一次额度,跟昨天比起来感觉不耐蹬了,用的 5.4,xhigh。是我的错觉吗? 3 个帖子 - 3 位参与者 阅读完整话题
测试显示错误:模型 gpt-image-2: The server had an error while processing your request. Sorry about that! 上游是openai 1 个帖子 - 1 位参与者 阅读完整话题
codex config.toml 直接指定gpt5.5即可 model = “gpt-5.5” model_reasoning_effort = “xhigh” 7 个帖子 - 5 位参与者 阅读完整话题