Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 54 篇相关文章 · 第 2 / 3 页

[Local LLM] 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech v2ex.com 2026-04-28 01:53:59+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 15:59:01+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 15:16:14+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 15:05:44+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 14:38:52+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 14:32:36+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 14:18:17+08:00

[分享创造] 看着家里运行了 20 年的话机,于是做了个 IOS SIP 软电话,基于 Baresip + Whisper + LLAMA,上架到外区了,附赠一些兑换码

官网介绍页: https://app.yakteam.com/ App Store: https://apps.apple.com/us/app/yak-ai-sip-phone/id6763033863 * 支持 SIP 协议支持的大部分功能,UDP/TCP/TLS 注册,多账

tech v2ex.com 2026-04-27 14:09:12+08:00

Ollama Cloud的DeepSeek-V4-Pro来了

9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-27 13:25:35+08:00

ollama cloud家的 deepseek v4 pro 可以用了,大家快去测试测试

刚去刷新ollama 发现也出来这个deepseek v4 pro 可以使用了 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 13:16:11+08:00

ollama上线DeepSeekV4pro了

官方api昨天花了100 如果考虑大量用 这个是最优解吗? 12 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-27 12:52:41+08:00

ollama cloud支持v4pro了

貌似是因为有bug所以迟迟不上 13 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-27 12:41:58+08:00

CC GUI配合ollama cloud+glm5.1逆向太爽了

如下图所示是我在做的一个ios游戏逆向,我使用的是论坛里佬友的ccgui项目( https://linux.do/t/topic/1959236/463)ollama cloud pro订阅(20刀每月)+glm5.1,也使用过kimi k2.6 目前进行逆向来说没有任何反驳没有

tech linux.do 2026-04-27 09:07:26+08:00

2080ti 11g本地部署qwen 3.6 35b a3b,128k 上下文,67tps

我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上

tech linux.do 2026-04-26 16:52:57+08:00

[分享创造] Llama Web Manager - 轻量级 llama-server 实例管理工具

以前用命令行为每个模型启动一个 llama-server ,管理起来挺麻烦的,尤其是切换模型看日志的时候。 最近写了个 Web 管理工具,核心功能: 多实例管理 - 同时运行多个 llama-server ,通过卡片管理 实时日志 - SSE 推送,启动/停止自动切换到对应实例

tech v2ex.com 2026-04-25 22:54:01+08:00

天塌了,ollama cloud的deepseek v4 pro不思考

早上起来拉取了一下ollama cloud的模型列表,惊喜的发现v4pro已经上了,连忙测试了一下,发现速度也快的惊人,让人很是喜悦啊! 但很快我就发现不对劲,不管是太阳系模拟还是魔方居然都无法好好完成,跟我用deepseek官方测试的简直是天壤之别 然后我意识到了,不会是压根没

tech linux.do 2026-04-25 12:43:06+08:00

ollama cloud 上刚刚上了 deepseek-v4-flash 模型,可以用啦

大家快去看看 deepseek-v4-flash 模型 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:51:03+08:00

ollama cloud的GLM 5.1能够接入vscode copilot使用吗?

ollama cloud的GLM 5.1能够接入vscode copilot使用吗?我用了cloud模型,聊天框有输出,不能够直接修改项目代码。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 17:06:55+08:00

ollama cloud上架deepseek v4 flash

模型卡片: deepseek-v4-flash 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:53:14+08:00

你们说,DeepSeek V4会搞蒸馏小模型吗

去年DeepSeek R1出的时候,还出了好几个蒸馏小模型,基座是qwen2.5和llama3,现在v4也有思维链,大概不会有R2了,正好前端时间qwen3.5和qwen3.6出了,不知道会不会继续搞蒸馏小模型,当然最好是直接拿v4 pro做个小模型 1 个帖子 - 1 位参与者

tech linux.do 2026-04-24 16:31:31+08:00