gpt-5.5这对嘛,突然返回一句“亚洲AV”
宕机了我 9 个帖子 - 8 位参与者 阅读完整话题
5.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第18页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1045 篇相关文章 · 第 18 / 53 页
宕机了我 9 个帖子 - 8 位参与者 阅读完整话题
gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题
我自己整的转发站、试试水、 不为挣钱、图个省心、 绝不跑路 https://manage-xai.weapi.com vx: bW9qaXJ1d28=
沉迷于全AI流小说软件,vibe coding花钱如流水。 这个月给中转站的gpt花了小1k,突然惊醒过来,这个价格都要逼近20x了,尤其是gpt5.5出来后,花费跟claude平分秋色。但5.5确实用的很爽,对于vibecoding来说,又快又准,说完就能很快出结果。但钱包羞涩
Plus会员,即使是 extended 的 think 模式,5.5的思考速度也很快,通常都在 1 分钟以内。非 think 内容的生成速度极快,类似于此前 mini 模型的水准。询问其模型型号时,回答是 5.5 thinking。佬们有遇到这种情况吗? 11 个帖子 - 9 位
rt,刚刚正准备写毕业论文呢,把一大通东西发送给 5.5pro 之后发现他一点也不思考,直接就给出内容了,使用 thinking 的 juice 值判断方法已经确定账号没有降智,但现在 pro 是完全不思考的状态,想来问问各位也是这样吗? 10 个帖子 - 5 位参与者 阅读完整
我现在手头有一个指定领域写专利的任务,但是完全没灵感。 想试下opus 4.7 max或者gpt 5.5 extra high,给我整点灵感,但是现在token巨贵。 所以先来 L 站问问各位佬,这俩有真实用过的吗?体验到底咋样?对比起来哪个更好? 2 个帖子 - 2 位参与者
我看gpt5.4还是950k 2 个帖子 - 2 位参与者 阅读完整话题
gpt5.5开发ios的swift项目,有个样式改了很多次,直接给我5H干没了。想起来ds之前充了10元一直没用,接入到claude code里,2-3轮就找到问题给我解决了。gpt5.5来回十几轮没给我解决,气得我差点要冲100刀pro。没想到ds只花了1元钱的费用就解决了。又
自己的三个team号额度都用光了,周限要5月才刷新了,有没有大佬搞点额度让我蹬一蹬 站里面的公益站都注册不了,本人不养虾,纯codex使用 6 个帖子 - 3 位参与者 阅读完整话题
如题,pro订阅,最近用sonnet4.6感觉比之前用的久了,比team的 codex 5.5 耐用一些? 1 个帖子 - 1 位参与者 阅读完整话题
之前使用gpt 5.3 codex的时候下载了superpowers,感觉给我的5.3变的成傻子了。现在5.5用superpowers,感觉一点都不好用了,写的东西很多问题,总是给我写兜底,然后写的时间很长,写的文件很多,任务比较紧急的话就不要使用了,问问题这一点不错。其他的我觉
实在是不喜欢codex,找代码,调用工具又慢又有问题,一个东西要确认一万次,受不了赖,除了codex还有其他推荐的idea吗 11 个帖子 - 11 位参与者 阅读完整话题
因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"
想问下佬,gpt5.5在codex的上下文比opus短很多,现在可以怎么解决呀?自动压缩似乎也比5.4的时候厉害了,压缩完gpt什么都忘记 14 个帖子 - 5 位参与者 阅读完整话题
说好的进步了呢? 我会尽量不用“高级术语”直接压你,先用生活类比,再回到代码。 5 个帖子 - 5 位参与者 阅读完整话题
让gpt给我生成了一张对抗图,这符合这两个模型的风格不 12 个帖子 - 12 位参与者 阅读完整话题
用API站的GPT5.5,稍微想用点爬小红书的都不行,立马跳KYC,为了API站去搞KYC验证貌似也不太合理…各位佬有啥办法么 1 个帖子 - 1 位参与者 阅读完整话题
后续切5.4 就能干了,顺便问下哪里可以代过cyber么? 2 个帖子 - 2 位参与者 阅读完整话题
常见测试题都能思考几秒光速答对并且考虑很全面 拍照发题目也是几秒就思考完了然后开始给答案并且还没啥问题 体感上输出速度和Gemini开快速都差不多了 这些问题换成5.4得推理半天还不一定对 8 个帖子 - 7 位参与者 阅读完整话题