还得是 Claude
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
一个 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第352页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 10110 篇相关文章 · 第 352 / 506 页
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
如题,想看看大家是怎么压榨 AI 剩余价值的 。 我自己先贡献一个自用的: BasicGuidelines -Ensure Accuracy and Unbias: Write responses from an objective and professional pers
用的佬友的一个项目 是不是这个 free 只能选低分辨率的呀?而且这个效果有点差劲,文字很多错的,这是降质了还是? 6 个帖子 - 3 位参与者 阅读完整话题
我发现一个神奇问题,我使用任何提示词使用gpt-image-2的时候都可以正常使用,但是一但提到梅西,他就一直卡着不生成,或者把我的图片不动的退回来了;这是什么原理??? 12 个帖子 - 8 位参与者 阅读完整话题
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
格式问题:Word 是万恶之源 简历用 Word 写,对方用 Pages 打开——恭喜你,喜提一行行错位。 这不是玄学。不同系统、不同 Office 版本渲染同一个 docx 文件,结果可能完全不一样。我朋友投某大厂,简历在 HR 那边打开排版全乱了,而他自己电脑上看着一点问题没
技术详情 在线体验 GitHub Repo AltStore Podish 是一个面向 iOS / Apple Silicon 专门优化的高性能 Linux x86 用户态容器。它用 C++ 写了一个 i686 解释器核心,用 C# 写了 Linux 兼容层,在 iPhone 1
高效吸收不好玩喵 8 个帖子 - 7 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
各位佬友,我现在手上有GLM5.1,kimik2.6,gpt5.5 请问哪一个更适合当西西弗斯,或者指挥者?我想看deepseekv4的世界知识好像不错,不知道如何发挥他的长处,有没有佬友尝试过了,可以交流一下吗? 我现在刚上手omo 3天,发现omo整体流程很重,模型不太愿意开
接了一个单子,需要部署。我只会vmware esxi。但是有没有什么方案做虚拟化办公? 3 个帖子 - 3 位参与者 阅读完整话题
我之前并不是 claude 的忠粉,用过一个月 pro ,也同时订阅 gpt plus ,glm pro ,因为 cc 价格高,之后一直在国产 glm5.1 为主力,实话实说日常大部分线性开发都没大问题,最近在给一个 app 的( ios 相机类)修美颜功能的 bug ,给了给多
sk-cp-zAhhrL76V16K0ae6w3dY76VZVAP62Tlh_-S_xb3UNt3m9yeoKhlvBrumIxowUZCzI_NySjgH9IrIYT8cueci1unqDKMt0Cweu13wUw9QuJyEcBRQfI-rm6o 2026.5.21到期,主要
事情经过,4 月 1 号,经媒人介绍,加了一个女生,以下简称女生 1 ,通过微信聊了一段时间,约了 4 月 4 号(周六)见面,原本两人见面相谈甚欢,4 月 5 号是清明节未约,隔天 4 月 6 号又约了打羽毛球,彼此也能打打球吃吃饭,又过了一个星期,再约打球见面第二次,女生也能
事情经过,4 月 1 号,经媒人介绍,加了一个女生,以下简称女生 1 ,通过微信聊了一段时间,约了 4 月 4 号(周六)见面,原本两人见面相谈甚欢,4 月 5 号是清明节未约,隔天 4 月 6 号又约了打羽毛球,彼此也能打打球吃吃饭,又过了一个星期,再约打球见面第二次,女生也能
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.
27B/31B 甚至 35B 的 4bit 都可以, 测试了好久, 也下载了几十个了,都不太行, 感觉降智了, 这些刚出来的时候我这个配置能跑到 35tokens/s. 准备直接抄作业, 请给 huggingface 连接, 我的本地推理框架是 omlx, 感谢感谢.