有点 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn

有点 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 611 篇相关文章 · 第 22 / 31 页

关于父母的问题讨论以及求助

各位佬友大家好,标题有点长,先谢过大家耐心看完! 【基本情况】 本人31岁,已婚未育,目前在上海打拼,暂未买房。父母今年63岁左右,老家在边疆。今年过年我把二老接到了上海过年,发现我爸变化非常大。 【遇到的困惑】 我爸来上海后,我发现他语言表达变得有些迟钝,几乎不跟外人交流,甚至

tech linux.do 2026-04-22 17:30:36+08:00

[VPS] hosthatch 庆祝公司成立 15 周年活动

据说适合建站 就是有点贵 要是 3 年付 66$ 就买一个了 ,3 年后不知道硬件啥价格啊 冷静下来,因为过去六个月左右时间里,由于内存/NVMe 价格疯狂上涨,我们过得相当艰难。但与此同时,HostHatch 也取得了不错的增长,收入几乎比上一年翻了一番,而且我们一直在忙于升级

tech v2ex.com 2026-04-22 17:19:19+08:00

🔥预告 | GenericAgent 2api gpt-image

简简单单的2api项目,预告一下。 注意需要结合GenericAgent的能力哦。 我有点不太记得我有没有发布2api的焚绝了: 补一个极小极小极小的焚绝: llm-api-adapter.zip (16.7 KB) 喜欢就支持一下GA吧 如果GA真的给你带来了便利,不不不,一定

tech linux.do 2026-04-22 16:54:03+08:00

最近 OpenAI 动作有点多啊,是不是 GPT-5.5 要发布了?

先发 image-2,然后是 codex 上 gpt-5.5 和内部模型泄露, 是不是这两天就要发新模型了? 我看 PolyMarket 上明天发新模型的概率异常高,是内鬼发力了? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:46:29+08:00

看到挺多佬友在用替尔泊肽,分享一下我的使用记录

年后体重涨得有点离谱,加上替尔泊肽刚进医保,就去医院系统查了一遍——甲状腺、血糖、血脂该做的都做了,指标没问题后自己开始注射。 初始体重是 85kg 左右,到现在还不到一个月,体重下降了 6.5kg 左右 InBody 数据(4.20) 身高 175.5cm / 体重 78.6k

tech linux.do 2026-04-22 16:35:38+08:00

我是真的怕,ai写代码太牛了

全栈,新公司用的react,我只有点vue基础,刚入职借助千问勉强写点react,然后发现组件嵌套巨巨巨巨巨深,完全写不动…上班摸鱼刷linuxdo(不上班半年没刷过了…),了解到公益站,用的gpt5.4模型,把我挠头的问题直接就给解决掉了,而且我还看不懂…现在就是海鲜拼了个车,

tech linux.do 2026-04-22 16:29:44+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 16:26:12+08:00

请问zcodex 如何使用gemini模型

我现在用codex 制作了一个网站,UI有点不好看我听说gemini的UI设计能力很强,请问如何在codex直接调用gemini模型来修改网站UI? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:03:47+08:00

【咨询贴】github copilot 有必要升pro +吗?

github copilot 这把镰刀有点猝不及防啊,开的pro一直是拿来作为opus的备用渠道,结果现在pro用户不给用opus了。 但是现在pro还能升级pro+ ,咨询下佬友们,有必要升级吗? 现在这个pro 每月10刀 是食之无味,弃之可惜。如果取消订阅好像就没资格开了

tech linux.do 2026-04-22 16:02:09+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:59:09+08:00

聊一下这几年ai爆火的感受

前几年chatgpt刚出来的时候还在和朋友聊这个话题,当时vibe coding概念刚出来的时候还有点戏谑的意思,感觉ai只能写写简单的逻辑。最近尤其是cc出来之后越来越感觉大语言模型也就近几年的事,改变了好多好多。 昨天看到一篇论文提出的智能体主义(Agentivism),计算

tech linux.do 2026-04-22 15:55:16+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:39:22+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:35:47+08:00

Kimi 2.6是不是有点想的太多了

我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎 我用的ollama的plan,不知道官网的是不是也是这个水平 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:16:22+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 14:39:33+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:52:50+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:41:59+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:21:02+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 13:03:43+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:03:43+08:00