本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn

本地 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 619 篇相关文章 · 第 13 / 31 页

[程序员] 目前本地知识库最好的方案是什么?

目前本地知识库最好的方案是什么

tech v2ex.com 2026-04-28 18:28:47+08:00

[程序员] 目前本地知识库最好的方案是什么?

目前本地知识库最好的方案是什么

tech v2ex.com 2026-04-28 18:02:36+08:00

[分享创造] 做了一个用飞书/Lark 远程控制 Codex App 的本地闭环项目

项目地址: https://github.com/RyanWeb31110/lark-cli-codex-app 最近在折腾一个小项目:让飞书/Lark 变成 Codex App 的远程入口。 我想解决的不是简单的“机器人回复消息”,而是一个更完整的闭环: 人在飞书/Lark 里

tech v2ex.com 2026-04-28 18:00:00+08:00

[程序员] 目前本地知识库最好的方案是什么?

目前本地知识库最好的方案是什么

tech v2ex.com 2026-04-28 17:54:20+08:00

[分享创造] 做了一个用飞书/Lark 远程控制 Codex App 的本地闭环项目

项目地址: https://github.com/RyanWeb31110/lark-cli-codex-app 最近在折腾一个小项目:让飞书/Lark 变成 Codex App 的远程入口。 我想解决的不是简单的“机器人回复消息”,而是一个更完整的闭环: 人在飞书/Lark 里

tech v2ex.com 2026-04-28 17:49:31+08:00

[程序员] 目前本地知识库最好的方案是什么?

目前本地知识库最好的方案是什么

tech v2ex.com 2026-04-28 17:41:25+08:00

Ubuntu将原生集成AI功能 侧重于本地推理

,微软此前宣布要把Win11打造成原生AI系统,强塞了不少功能进去,结果引发玩家反弹,现在还在善后中。把操作系统打造成AI OS的公司也不止微软一家,前几天可能是世界最出名的Linux发行版Ubuntu 26.04 LTS发布了,不仅带来了Linux 7.0内核,还宣布了向AI转

tech plink.anyfeeder.com 2026-04-28 17:35:11+08:00

[程序员] 目前本地知识库最好的方案是什么?

目前本地知识库最好的方案是什么

tech v2ex.com 2026-04-28 17:31:57+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-28 17:17:39+08:00

CPA中OAuth验证的多久自动刷新一次

马上过五一了,本地部署的CPA,过完五一不会全部失效了吧,到时候是CPA用rf token自动刷新呢还是我要重新OAuth登录验证啊,有没有经历过的佬 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 15:42:23+08:00

刚在本地搭建好了DeepSeek V4 Flash模型,分享下技术路径

无任何违规内容,纯技术分享,求过审,给需要的佬们自己动手试试。 手上有一台8卡A100,单卡40G显存的版本,NVLink形式,由于ollama还没有提供本地部署的版本,尝试了几种方法,在github上找到了一个可行的方式,另外还看到了MacBook Pro上的版本,这个我没试过

tech linux.do 2026-04-28 14:50:57+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 14:27:48+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 13:41:48+08:00

求解决方案!各位佬,我现在公司离线局域网环境实现ai分析表格和文章,有什么办法?

求解决方案!各位佬,我现在公司离线局域网环境实现ai分析表格和文章,有什么办法? 公司本地部署了qwen3.6-27b,openwebui,但是无法实现像gpt那样自动写代码分析表格的这种路径。有什么解决办法吗? 有什么离线的类似于codex,这种终端命令工具吗? 6 个帖子 -

tech linux.do 2026-04-28 13:18:16+08:00

openclaw按次计费的站点分享

大佬们,GLM本地大模型专用于跑openclaw的模型限时体验, https://api.qwe7.cn/v1 兑换码27dde83089764b47b1efc935f79e2061 兑换码04a2b3276382499f8a3afeb151dc1cef 兑换码ed394ae82

tech linux.do 2026-04-28 12:52:53+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 12:00:16+08:00

佬们,我想本地跑大模型,显卡有没有推荐的?

我目前配置: R7 5700X DDR4 3200 16G X 4 B550M 联想拯救者主板 淘宝买了个PCIEX4->X16转接板。 所以显卡是:RTX 4060 8G X 2 但是最近玩llama.cpp,试了半天,也就9B还稳定点,上下文开大点凑乎能跑。 Qwen3

tech linux.do 2026-04-28 11:16:55+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 10:50:24+08:00

qwen3.6 27b 本地编码测试

搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用

tech www.v2ex.com 2026-04-28 10:38:42+08:00

微信v信疑问

既然微信没有去存储用户聊天数据,那为啥对方说了名字后就会在消息上加个添加备注,还很准确,本地模型能做到吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 10:28:09+08:00