本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第16页 - 钛刻科技 | TCTI.cn

本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第16页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 619 篇相关文章 · 第 16 / 31 页

有没有发现CPA模型调用异常?

有没有大佬和我发现一样的情况啊,只用CPA的team组建了号池,然后本地codex cli调用啊开发不可能被盗,怎么排名第一模型调用的是gpt-image-2呢? 从来没有生图,window的cpa最新版本 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-27 20:38:46+08:00

AI未来的发展,是硬件革新,还是软件优化?

(做个梦)2年后可能能在本地跑Opus4.6了 2028 年 4 月,Deepseek V6 发布,万亿参数规模的 Moe,性能达到 100% Claude Opus 4.6 水平,开源无审查,运行在 M7 Extreme + 1TB 内存的 Mac Studio 上(随着内存厂

tech linux.do 2026-04-27 20:20:34+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 19:36:20+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 19:33:20+08:00

全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech www.v2ex.com 2026-04-27 19:33:20+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 19:16:07+08:00

[DeepSeek] DeepSeek V4 刚发布,我把它接入了我的本地 AI 科普视频生成框架

DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(

tech v2ex.com 2026-04-27 19:12:56+08:00

[DeepSeek] DeepSeek V4 刚发布,我把它接入了我的本地 AI 科普视频生成框架

DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(

tech v2ex.com 2026-04-27 19:12:56+08:00

[DeepSeek] DeepSeek V4 刚发布,我把它接入了我的本地 AI 科普视频生成框架

DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(

tech v2ex.com 2026-04-27 19:12:56+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 19:04:37+08:00

MTP 太强了!为什么 Gemma4 不支持 MTP...

最近在尝试本地部署 Qwen3.6-27B 和 Gemma4-31B,发现因为是 Dense 模型,两者的生成速度都挺慢(相比 200多 B 的 MoE 模型而言,速率还低了一半,只有约 25-30 token/s)。但是我发现 Qwen3.6 支持 Multi-Token Pr

tech linux.do 2026-04-27 18:50:11+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 18:47:07+08:00

为了让 Agent 直接操作我的本地 Chrome,我做了个 Browser Relay

一言以蔽之,现在还没有能让 Agent 操作我的浏览器的方案 比如很多时候我想让 Agent 帮我看一个网页、点几个按钮、抓一下登录后的内容,结果就会遇到这些问题: Playwright / Puppeteer 默认是一个全新的浏览器环境,没有我的登录态。 云浏览器就不用说了,完

tech linux.do 2026-04-27 18:42:56+08:00

全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech www.v2ex.com 2026-04-27 18:39:35+08:00

两张nvdia 4090本地大模型分析

RTX 4090 本身是 PCIe 4.0 x16 设备 ,也就是显卡接口规格支持: PCIe 4.0 x16 对应理论单向带宽约: PCIe 4.0 x16 ≈ 31.5 GB/s PCIe 4.0 x8 ≈ 15.75 GB/s 项目 带宽 PCIe 4.0 x16 约 31

tech linux.do 2026-04-27 18:36:43+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 18:27:57+08:00

现在本地玩AI怎么装机性价比高?

主要需求是玩生图、语音合成,就偶尔玩一下,不是那种专业的生产力,还有偶尔会搞点剪辑,也是不太高频的,游戏方面不打fps,主玩3a,GTA,黑猴,只狼,大表哥这类 cpu就265k、9700x之间了,比较偏向9700x,因为比较便宜 现在纠结5060ti 16g、5070 12g、

tech linux.do 2026-04-27 18:21:51+08:00

[Local LLM] 全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了

同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、

tech v2ex.com 2026-04-27 18:16:27+08:00

[分享创造] [求轻喷] 把硬盘里乱七八糟的视频包成本地版 Netflix,想试试有没有人买

各位 V 友好~ 本来是自用的小工具:硬盘里几年攒下来一堆电影、剧、纪录片、教程、素材片段,文件名乱七八糟散在不同目录里,每次想看都得在 Finder 里翻半天。忍不了了,干脆用 Tauri + Rust + React 写了个本地版 Netflix ,名字叫 HomeFlix

tech v2ex.com 2026-04-27 18:05:46+08:00

[DeepSeek] DeepSeek V4 刚发布,我把它接入了我的本地 AI 科普视频生成框架

DeepSeek V4 发布后,我就用它搭了一套「 AI 自动生成短视频」的流程,简单分享下。 核心就是:输入一个主题(支持文本 / PDF / URL ) → 自动生成脚本 → 一键生成视频(配音 + 图片 + 字幕 + BGM + 封面)→ 直接发布。 大概流程: 输入主题(

tech v2ex.com 2026-04-27 17:58:48+08:00