一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第60页 - 钛刻科技 | TCTI.cn

一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第60页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2139 篇相关文章 · 第 60 / 107 页

Sub2API codex导入

小白求助,想请问一下社区里面的大佬,我在使用sub2api时,使用oauth登录自己的gpt plus账号,登录之后会报错,我挂梯子了请问这种情况怎么解决 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:54:18+08:00

这个网站是专门爬l站的帖子吗

剧透 抽奖贴都爬,真没绷住 ,不推广,模糊一下 以放0级,看看这个网站能不能把此贴爬走 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:53:08+08:00

xchat已出

xchat感觉就是x生态的聊天功能移出单独做的一个纯聊天软件,我比对了一下开发者,还以为下载错了呢,有点拉了坨大的感觉了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:41:57+08:00

ChatGPT Team额度太少

chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:41:42+08:00

申请抖音音乐人

最近突发奇想,弄 ai 音乐,然后申请抖音音乐人 但是他那个好像需要点赞超过 100 才能申请,想问一下各位大佬,有没有什么快速的方法 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:38:52+08:00

使用cpa-warden 的佬需要注意一下

目前查看cpa接口返回限额账号都是标记为不可用这个会命中warden的401逻辑,这样账号就没了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:22:10+08:00

[生活] 提醒一下,发票抽奖

个人发票可以抽奖大家都知道吧?最近听朋友说中奖概率还可以,朋友抽了 10 次左右就中了一次 800 ,其他大部分都是 10 块。我自己试了几次,目前 100% 中 10 块。目前发现美团小象超市开出的发票就可以,大家没事的可以去试试

tech v2ex.com 2026-04-25 16:10:28+08:00

求助image2怎么生4k的图呀

web试了一下咋都是1k的,codex让他查了参数返回的还是1k的,佬们都是这么生的4k啊 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:08:59+08:00

大佬们一般都是在哪里学习ai相关知识的

有什么网站或者github仓库可以推荐一下吗,总觉得了解的太散了 10 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:04:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

gitpub copilot pro+包年有必要退费么?我看坛子里codex pro价格挺便宜的

gitpub copilot pro+包年有必要退费么?我看坛子里codex pro价格挺便宜的。有大佬指点一下么 16 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:44:35+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 14:43:04+08:00

蹲一蹲价格实惠的5.5中转

plus额度真的太少了,佬友能不能私信分享一下价格合适的中转站呀 感谢感谢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:40:11+08:00

GPT free + CPA,能使用 image-2 生成图片么?

测试了一下,让我配置 OPENAI_API_KEY,配置了也无效~ 是不支持么 8 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:25:45+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能

tech linux.do 2026-04-25 13:48:46+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:36:22+08:00

不建议在这个时间段调用nvidia的deepseek-v4-flash

有点慢,我用codex调用,叫他帮我查一下codex的配置文件,调用了5次工具都断线了TT 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 13:28:39+08:00