最近推特上掀翻天的 ChatGPT 代充骗局揭秘文章疑似抄袭我去年 10 月份在 v 站和我的 github 上写的文章
GitHub 文章: https://github.com/walter1297/ChatGPTSub v 站文章: https://www.v2ex.com/t/1164579#reply1 看到好几篇很火的文章里把 ChatGPT 补单端点都抄的和我一样了,也不知道为什么火的
疑似 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 120 篇相关文章 · 第 4 / 6 页
GitHub 文章: https://github.com/walter1297/ChatGPTSub v 站文章: https://www.v2ex.com/t/1164579#reply1 看到好几篇很火的文章里把 ChatGPT 补单端点都抄的和我一样了,也不知道为什么火的
一定不要囤积土区的苹果礼品卡!一定不要囤积土区的苹果礼品卡!每个月固定买一个月500里拉就行! 因为土耳其货币因多种原因一直兑人民币都是贬值,我问了御三家AI,后续还会贬值,几乎不可能反弹! 一年前我花400人民币左右才订阅4个月plus,现在400人民币能订阅5.13个月!血亏
┌──(k1㉿kali)-[~] └─$ curl -k -I https://x.x.x.x:20147 curl: (35) Recv failure: 连接被对方重置 测试使用 wireguard 以及 s5 连回家中访问正常 坐标浙江 目前是 nasweb 以及 webd
┌──(k1㉿kali)-[~] └─$ curl -k -I https://x.x.x.x:20147 curl: (35) Recv failure: 连接被对方重置 测试使用 wireguard 以及 s5 连回家中访问正常 坐标浙江 目前是 nasweb 以及 webd
偶然发现 暂无准确信息来源 2 个帖子 - 2 位参与者 阅读完整话题
屠龙刀终究还是来了。pro实在是被A\嫌弃 贴上官方文档引用: support.claude.com Claude Code model configuration | Claude Help Center 后续: 内部人员澄清,应该是乌龙。看来又是一次A/B测试 14 个帖子
我这边是跟着 【省钱系列12】尼区买Timon信用卡教程,$77买Claude Code Max 5x,$152买20x,$12买Pro,封号退到卡 - 文档共建 - LINUX DO 佬友的教程开了timon的号,刚刚第一笔入金从gate走的polygon的usdt,但是过了4
小红书昨日遭到“炮轰”。追觅科技创始人、CEO俞浩连发三条微博质疑该平台变成了舆论阵地,内容扩散被算法掌控。他还称:“不会把小红书的客诉当成参考,这是个价值观和盈利模式都非常有毒的平台!小红书是个非常烂的平台”。他在最后一则帖子评论区中指出:“小红书算法有意推荐作恶。” 文 |
据缅甸媒体报道,当地时间4月20日上午9时许,缅甸仰光国际机场发生一起惊险的地面事故。缅甸国家航空公司(MNA)一架ATR 72-600型客机在滑行过程中疑似刹车系统失灵, 无法控制速度,先后撞上一架停泊的空客A319客机和一辆行李拖车,两机及拖车均受损。 涉事的ATR-72客机
听说火山的Coding Plan有GLM-5.1,我又一直都是GLM-5.1的重度用户,果断就去购买了200的月套餐,但是从切换成火山的glm-5.1后,感觉明显降智,沟通一个问题,根本不去读代码也不分析,就是一顿乱改,感觉像是之前用glm-4.7的感觉。我刚开始觉得可能只是错觉
忘了从哪看到,Deepseek网页版的深度思考的深度是High? 但是 官方的技术报告 里提到,Max思考深度使用了特定提示词。 (翻译) (翻译) 提示词: Reasoning Effort: Absolute maximum with no shortcuts permitt
RT,测试了手上的 5 个Free账户,有 3 个可以正常生成,其余两个疑似仍是老模型。 效果如下: 1 个帖子 - 1 位参与者 阅读完整话题
疑似: 训练使用的还是NVIDIA的显卡,推理使用的是华为的 这也是一个很大的进步了,但是大家不要混淆)刚还看到ds4暴打英伟达的帖子 5 个帖子 - 5 位参与者 阅读完整话题
如图,本来想简单看看v4 pro的小说能力如何,但是查看思维链发现怎么出现了疑似幻觉问题 4 个帖子 - 3 位参与者 阅读完整话题
如图,Claude 现在 5h 额度开始以半小时作为单位了?之前印象中都是整点重置的。 有其他佬友遇到了吗? 1 个帖子 - 1 位参与者 阅读完整话题
六点多就开始点不动了,注意这是新链接,变成和旧链接一样的情况了 1 个帖子 - 1 位参与者 阅读完整话题
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。 我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显
登录的是codex pro 20x的账号 在使用codex cli时刚刚给我跳出上下文长度超过了的提示, 怀疑是路由到了新的gpt 5.5,上下文长度只有256k. 没有gpt-5.4的 1M上下文 2 个帖子 - 2 位参与者 阅读完整话题
Claude Mythos疑似泄露,各位佬有消息吗,如图 4 个帖子 - 4 位参与者 阅读完整话题
如题,刚刚测试的5.4 Pro又出现5.4系列的口癖了,并且思考时间也有明显延长,应该是发布之前又切回真正的5.4-pro了 OpenAI这招太狠了,一下就比对出两个版本有多大差异了,5.4的表述真的晦涩不止一点 2 个帖子 - 2 位参与者 阅读完整话题