关于父母的问题讨论以及求助
各位佬友大家好,标题有点长,先谢过大家耐心看完! 【基本情况】 本人31岁,已婚未育,目前在上海打拼,暂未买房。父母今年63岁左右,老家在边疆。今年过年我把二老接到了上海过年,发现我爸变化非常大。 【遇到的困惑】 我爸来上海后,我发现他语言表达变得有些迟钝,几乎不跟外人交流,甚至
有点 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 611 篇相关文章 · 第 22 / 31 页
各位佬友大家好,标题有点长,先谢过大家耐心看完! 【基本情况】 本人31岁,已婚未育,目前在上海打拼,暂未买房。父母今年63岁左右,老家在边疆。今年过年我把二老接到了上海过年,发现我爸变化非常大。 【遇到的困惑】 我爸来上海后,我发现他语言表达变得有些迟钝,几乎不跟外人交流,甚至
据说适合建站 就是有点贵 要是 3 年付 66$ 就买一个了 ,3 年后不知道硬件啥价格啊 冷静下来,因为过去六个月左右时间里,由于内存/NVMe 价格疯狂上涨,我们过得相当艰难。但与此同时,HostHatch 也取得了不错的增长,收入几乎比上一年翻了一番,而且我们一直在忙于升级
简简单单的2api项目,预告一下。 注意需要结合GenericAgent的能力哦。 我有点不太记得我有没有发布2api的焚绝了: 补一个极小极小极小的焚绝: llm-api-adapter.zip (16.7 KB) 喜欢就支持一下GA吧 如果GA真的给你带来了便利,不不不,一定
先发 image-2,然后是 codex 上 gpt-5.5 和内部模型泄露, 是不是这两天就要发新模型了? 我看 PolyMarket 上明天发新模型的概率异常高,是内鬼发力了? 1 个帖子 - 1 位参与者 阅读完整话题
年后体重涨得有点离谱,加上替尔泊肽刚进医保,就去医院系统查了一遍——甲状腺、血糖、血脂该做的都做了,指标没问题后自己开始注射。 初始体重是 85kg 左右,到现在还不到一个月,体重下降了 6.5kg 左右 InBody 数据(4.20) 身高 175.5cm / 体重 78.6k
全栈,新公司用的react,我只有点vue基础,刚入职借助千问勉强写点react,然后发现组件嵌套巨巨巨巨巨深,完全写不动…上班摸鱼刷linuxdo(不上班半年没刷过了…),了解到公益站,用的gpt5.4模型,把我挠头的问题直接就给解决掉了,而且我还看不懂…现在就是海鲜拼了个车,
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
我现在用codex 制作了一个网站,UI有点不好看我听说gemini的UI设计能力很强,请问如何在codex直接调用gemini模型来修改网站UI? 1 个帖子 - 1 位参与者 阅读完整话题
github copilot 这把镰刀有点猝不及防啊,开的pro一直是拿来作为opus的备用渠道,结果现在pro用户不给用opus了。 但是现在pro还能升级pro+ ,咨询下佬友们,有必要升级吗? 现在这个pro 每月10刀 是食之无味,弃之可惜。如果取消订阅好像就没资格开了
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
前几年chatgpt刚出来的时候还在和朋友聊这个话题,当时vibe coding概念刚出来的时候还有点戏谑的意思,感觉ai只能写写简单的逻辑。最近尤其是cc出来之后越来越感觉大语言模型也就近几年的事,改变了好多好多。 昨天看到一篇论文提出的智能体主义(Agentivism),计算
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎 我用的ollama的plan,不知道官网的是不是也是这个水平 3 个帖子 - 3 位参与者 阅读完整话题
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),
虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),