Mini - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第40页 - 钛刻科技 | TCTI.cn

Mini - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第40页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1036 篇相关文章 · 第 40 / 52 页

【讨论贴】国内有哪些前端开发比较厉害的模型哇?

目前是这个样子的:Claude用不到,Gemini抽风开始503无权限,后端GPT5.4足够使用,奈何前端UI真是惨不忍睹。 故想讨论下国内是否有可以平替Gemini的模型,专门用来开发前端捏? 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:22:17+08:00

请问zcodex 如何使用gemini模型

我现在用codex 制作了一个网站,UI有点不好看我听说gemini的UI设计能力很强,请问如何在codex直接调用gemini模型来修改网站UI? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:03:47+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:59:09+08:00

Gemini for Home 现已升级

Google – 21 Apr 26 Make chats more natural and efficient with Continued Conversation, now in... Since early access launched, millions of you

tech linux.do 2026-04-22 15:59:02+08:00

用GPT生成哆啦A梦知识漫画,效果还行,跟gemini的画风稍微不一样

步骤很简单, 用notebooklm解析PDF, 让它生成一些关于漫画分镜的提示词 把提示词给任何一个生图PDF 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:43:11+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:39:22+08:00

关于Sub2api和gemini

Sub2api部署完给团队用GPT正常。是不是sub2api,不能用gemini pro啊?OAuth的gemini pro报403,小白诚心求教。有什么其他办法使用吗 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:39:15+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 15:35:47+08:00

GPT降智了?

为什么我选了pro模型但实际对话使用的还是5mini,是全网降智了吗还是我pro掉了?但我看我账户那块也没掉啊。 9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:31:37+08:00

佬们有没有买MacBookAir的优惠渠道

目前工作用的是MacMini,有一台17款的MacBookPro作为移动办公使用,pro的键盘有个别键位有问题了,然后用久了屏幕会有点花。想置换一台MacBookAir作为移动办公的工具,看了PDD大概6400,算上置换能抵个1200的样子,还是得5200。有没有办法把价格打到5

tech linux.do 2026-04-22 15:06:09+08:00

第一批学生邮箱过的Gemini会员掉了

佬们的会员掉了吗,刚才突然发现之前第一批搞得掉了 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-22 14:55:36+08:00

硅基流动为什么不出编程套餐

现在编程套餐这么火爆,zhipu, minimax等都供不应求,模型都是开源的,硅基流动怎么没听说有推出编程套餐?反而最近没有什么动作的样子,纯好奇。 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 14:41:11+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 14:39:33+08:00

谷歌发布 Gemini 3.1 Pro 深度研究智能体,可连接专有数据源生成专业图表

IT之家 4 月 22 日消息,谷歌昨日(4 月 21 日)发布博文, 宣布升级其自主研究智能体,推出 Deep Research 与 Deep Research Max ,均基于 Gemini 3.1 Pro 模型打造,让智能体从复杂的摘要引擎转变为企业级工作流的基础组件。 I

tech www.ithome.com 2026-04-22 14:23:32+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:52:50+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:41:59+08:00

跪求一个Gemini中转站

主要用来在Gemini Cli写前端用的,之前开通了Gemini AI Pro会员,昨天用着还好好的,今天就提示没权限了,站内查了一下,可能是被软封禁了(只有cli用不了) Claude写前端也不错,但是太贵了哇,而且还不稳定 我也曾尝试过使用GPT5.4写前端,丑吐了哇,而且G

tech linux.do 2026-04-22 13:32:44+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:21:02+08:00

[程序员] 热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech v2ex.com 2026-04-22 13:03:43+08:00

热烈欢迎火山 Coding Plan 加入 GLM5.1 Kimi2.6 MiniMax2.7 阵容

虽然火山的消耗有点快 TPS 有点低,但是这应该是众多 Coding Plan 中为数不多积极接入新模型的了吧? Codingplan 说实话,你怕龙虾啥的薅 token ,你就做缓存上的费率倍数我觉得(因为 Coding 上的话,同一任务中命中缓存应该是常态所以花费反而不高),

tech www.v2ex.com 2026-04-22 13:03:43+08:00