一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn

一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2156 篇相关文章 · 第 61 / 108 页

ChatGPT Team额度太少

chatgpt team使用 gpt5.5模型high fast,使用多agent对系统源码进行检查,一下子额度就没了,真快啊 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:41:42+08:00

申请抖音音乐人

最近突发奇想,弄 ai 音乐,然后申请抖音音乐人 但是他那个好像需要点赞超过 100 才能申请,想问一下各位大佬,有没有什么快速的方法 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:38:52+08:00

使用cpa-warden 的佬需要注意一下

目前查看cpa接口返回限额账号都是标记为不可用这个会命中warden的401逻辑,这样账号就没了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:22:10+08:00

[生活] 提醒一下,发票抽奖

个人发票可以抽奖大家都知道吧?最近听朋友说中奖概率还可以,朋友抽了 10 次左右就中了一次 800 ,其他大部分都是 10 块。我自己试了几次,目前 100% 中 10 块。目前发现美团小象超市开出的发票就可以,大家没事的可以去试试

tech v2ex.com 2026-04-25 16:10:28+08:00

求助image2怎么生4k的图呀

web试了一下咋都是1k的,codex让他查了参数返回的还是1k的,佬们都是这么生的4k啊 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:08:59+08:00

大佬们一般都是在哪里学习ai相关知识的

有什么网站或者github仓库可以推荐一下吗,总觉得了解的太散了 10 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-25 16:04:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 15:17:18+08:00

gitpub copilot pro+包年有必要退费么?我看坛子里codex pro价格挺便宜的

gitpub copilot pro+包年有必要退费么?我看坛子里codex pro价格挺便宜的。有大佬指点一下么 16 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:44:35+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 14:43:04+08:00

蹲一蹲价格实惠的5.5中转

plus额度真的太少了,佬友能不能私信分享一下价格合适的中转站呀 感谢感谢 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:40:11+08:00

GPT free + CPA,能使用 image-2 生成图片么?

测试了一下,让我配置 OPENAI_API_KEY,配置了也无效~ 是不支持么 8 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:25:45+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:56:57+08:00

GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能

tech linux.do 2026-04-25 13:48:46+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:36:22+08:00

不建议在这个时间段调用nvidia的deepseek-v4-flash

有点慢,我用codex调用,叫他帮我查一下codex的配置文件,调用了5次工具都断线了TT 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 13:28:39+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 13:03:16+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 12:52:52+08:00

请教一下大佬们我的vscode中的codex插件怎么用不了了,重启卸载重装都不行,连登录界面都没有了

3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 12:44:27+08:00