本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第17页 - 钛刻科技 | TCTI.cn

本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第17页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 619 篇相关文章 · 第 17 / 31 页

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 17:38:48+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 17:38:48+08:00

自从有了AI,产品也硬气了,我现在跟研发吵架就基本没输过,研发再也不说“我本地没问题”了,笑死

之前发过一个开源推广的帖子: 从[【开源】一个偏运维/排障的AI Shell :能跑ssh、top、vim,默认带风险控制] 今天也不废话了,直接贴图,以图为证,看我是不是上道了,哈哈: ( https://linux.do/t/topic/1918258 )继续讨论: 16 个

tech linux.do 2026-04-27 17:27:14+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 17:26:54+08:00

发现ccs的本地路由挺好用的,可以让任意模型使用claude code的auto模式

相信很多人都遇到这样的问题:使用 claude code 时一直要权限太麻烦,bypass 又太危险。 所以 claude 三月出的 auto 模式就是最优解了,兼顾流畅和安全 但是问题来了,auto 模式只有 claude 模型才能用,你接 glm,deepseek,gpt 都

tech linux.do 2026-04-27 17:26:14+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 17:04:03+08:00

[OpenAI] qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech v2ex.com 2026-04-27 15:57:58+08:00

[OpenAI] qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech v2ex.com 2026-04-27 15:57:58+08:00

[OpenAI] qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech v2ex.com 2026-04-27 15:29:33+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-27 14:56:11+08:00

[OpenAI] qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech v2ex.com 2026-04-27 14:36:20+08:00

WireGuard节点与tailscale 冲突

简单来说我的需求是能较低延迟的访问家里电脑 同时本地和家里电脑也能继续使用WireGuard 我日常魔法上网用的是WireGuard连接到我朋友的家宽,在这个基础上配置tailscale会导致整个网络去美国绕上一圈 延迟甚至比rustdesk官方服务器转发还高 尝试的解决方案 使

tech linux.do 2026-04-27 12:57:00+08:00

[开源] Patch Courier: Email 进来, Codex 在你的 Mac 上干活

最近在做一个本地优先的小工具 Patch Courier ,想解决一个很具体的问题: 人不在电脑前时,能不能继续把任务发给自己 Mac 上的 Codex 去跑,但仓库、凭据、审批和执行策略都留在本地。 TL;DR:这是一个 Email -> 本机 Codex -> E

tech www.v2ex.com 2026-04-27 12:41:07+08:00

有没有claude的环境检测工具?

想在本地使用claude 和codex,有没有类似的环境检测的工具检测我配置的代理环境有没有问题。 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-27 11:53:48+08:00

[分享创造] iOS 打码 App「Maskduck 码鸭」发布 1.1:新增人脸检测和快捷指令

Maskduck (码鸭) 是一个完全本地处理的 iOS 图片打码工具——OCR 、人脸识别、打码渲染都在设备上跑,不上传任何图片。 1.0 发布后陆续收到网友邮件来的功能建议,挺受鼓舞, 立刻着手进行改进 本次更新 人脸自动检测 :照片里的脸会被框出,点一下即可打码。 苹果快捷

tech v2ex.com 2026-04-27 11:26:47+08:00

[分享创造] iOS 打码 App「Maskduck 码鸭」发布 1.1:新增人脸检测和快捷指令

Maskduck (码鸭) 是一个完全本地处理的 iOS 图片打码工具——OCR 、人脸识别、打码渲染都在设备上跑,不上传任何图片。 1.0 发布后陆续收到网友邮件来的功能建议,挺受鼓舞, 立刻着手进行改进 本次更新 人脸自动检测 :照片里的脸会被框出,点一下即可打码。 苹果快捷

tech v2ex.com 2026-04-27 11:26:47+08:00

[分享创造] iOS 打码 App「Maskduck 码鸭」发布 1.1:新增人脸检测和快捷指令

Maskduck (码鸭) 是一个完全本地处理的 iOS 图片打码工具——OCR 、人脸识别、打码渲染都在设备上跑,不上传任何图片。 1.0 发布后陆续收到网友邮件来的功能建议,挺受鼓舞, 立刻着手进行改进 本次更新 人脸自动检测 :照片里的脸会被框出,点一下即可打码。 苹果快捷

tech v2ex.com 2026-04-27 10:01:48+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:30:50+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:30:50+08:00

[AI Agent 智能体] 简单使用了一周在本地 Mac 的 qwen3.6-35b-a3b 模型

感觉本地的模型有很大的潜力,但也有局限,主要是受限于硬件吧。以下几点: 除了复杂架构调整分析工作外,日常的 CRUD 开发、项目总结、文档翻译、需求输入和模块的 Bug 修复上,几乎可以替代在线模型。 复杂分析以及深度的问题查找、大上下文还受限于模型规模和内存。 经过豆包和模型自

tech v2ex.com 2026-04-27 09:14:03+08:00