[推广] [源头工厂] 顶级万号 ProMAX, $30 刀 Codex/GPT5 免费送,企业级稳定!
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
GPT5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 548 篇相关文章 · 第 7 / 28 页
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
如图,账号是PLUS会员,昨天都有的 7 个帖子 - 5 位参与者 阅读完整话题
有说完全一样的,有说有明显降智的,实际上个人用下来没什么不一样的感觉,有没有可能就是类似“阴谋论”而已 从而引发对未来free号上线5.5之后大众更多的猜疑 2 个帖子 - 2 位参与者 阅读完整话题
我是在本地跑的openclaw,连的gpt5.4,但是我看有很多人说自己给“小龙虾”放权之后文件被乱改啥的。加上我用5.3-codex有时候莫名其妙开始空转(让他跑自动检查结果只答应不行动,后台也没有工具调用) 于是乎,我自己给小龙虾配置了一套流程规则,也不知道有没有用,但是空转
今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。 那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。 新版 Codex 里,model_context_window = 500000 可能无
GPT5.5出来后,便宜好用的5.3被彻底稀释到不可用状态。新模型一出来,老模型就要被迫放弃 。减量又加价,真是烂透了。新模型是不是完全靠老模型降智来衬托 3 个帖子 - 3 位参与者 阅读完整话题
5.5 xhigh可以直接用codex,但如果想要让5.5pro来一些深度思考帮助启发没找到什么好办法,只能网页端上传文件聊天有点鸡肋 科研探索 / 研发 1 个帖子 - 1 位参与者 阅读完整话题
rt,想知道DeepSeek的代码能力水平,例如用GPT或者Claude的代码水平来对比。想知道能力有是GPT5.2这个水平嘛? 11 个帖子 - 7 位参与者 阅读完整话题
问了几个问题感觉还不如copilot学生包里面的gpt5.3-codex呢,第一次见到ai把我说的中文注释理解成写中文变量的 还更改我的原来写的Class 话说好像copilot学生包今天无法使用gpt5.3-codex了 11 个帖子 - 7 位参与者 阅读完整话题
此处分别使用了三个问题 分别问了 gpt5.5 5.4 5.3-codex 推理等级都是xhigh 1.gpt-5.3-codex和gpt-5.4 和gpt-5.5的能力差异有哪些 具体差多少 2.为什么gpt-5.5上下文现在只有272k 并不是官方说的1m 3.<?xm
到底是anthropic在claude code的代码里加了小尿汁了还是gpt-5.5(用的sub2api.)太拉跨了? 我昨晚用deepseek-v4-pro也遇到同样的问题.就是一个Read工具都调用不明白,翻来覆去调用不成功,就是原地打转… 是我的 api 的问题吗? 各位
如题,佬友们现在用哪个公益站的gpt5.4或者5.3-codex比较稳定? 主要用codex-cli 13 个帖子 - 5 位参与者 阅读完整话题
去年从claude转到GPT5开始使用,感觉GPT越来越好了,之前一直使用是是中转站。 后来是用的free账号+自建号码池。前段时间在TG上买了便宜的plus和pro。 pro用了两周挂了,plus还活着,free号也还活着。 我的使用方式是把CPA部署在圣何塞的Oracle小鸡
我在hub.linux.do选了一些倍率0.1的渠道。然后在codex用的gpt5.4模型。用了一下发现,输出大段大段的英文,很显然不是gpt5.4。 35 个帖子 - 21 位参与者 阅读完整话题
如题,希望知道解决方案的大佬能帮忙解答下 codex cli 账号gpt free 感谢! 2 个帖子 - 2 位参与者 阅读完整话题
gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题
沉迷于全AI流小说软件,vibe coding花钱如流水。 这个月给中转站的gpt花了小1k,突然惊醒过来,这个价格都要逼近20x了,尤其是gpt5.5出来后,花费跟claude平分秋色。但5.5确实用的很爽,对于vibecoding来说,又快又准,说完就能很快出结果。但钱包羞涩
每次用小龙虾都一堆废话又臭又长 咋办呀,有什么好方法吗?好一个gpt5.4 说那么长聊一会就爆token还把上下文给忘记 听说这里的人都比较厉害,听听大家建议 6 个帖子 - 4 位参与者 阅读完整话题
Plus会员,即使是 extended 的 think 模式,5.5的思考速度也很快,通常都在 1 分钟以内。非 think 内容的生成速度极快,类似于此前 mini 模型的水准。询问其模型型号时,回答是 5.5 thinking。佬们有遇到这种情况吗? 11 个帖子 - 9 位
我看gpt5.4还是950k 2 个帖子 - 2 位参与者 阅读完整话题