Claude 模型也不喜欢 OpenAI 啊,哈哈哈,笑死了
我就夸了一下他遵守规定,然后他就说到 “某些公司” ,还配了 倒是让我想起上次印度峰会两人拒绝握手的照片 这两个创始人真的是,从相爱到相杀 死对头,可以写个小故事了 2 个帖子 - 2 位参与者 阅读完整话题
一下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第63页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2174 篇相关文章 · 第 63 / 109 页
我就夸了一下他遵守规定,然后他就说到 “某些公司” ,还配了 倒是让我想起上次印度峰会两人拒绝握手的照片 这两个创始人真的是,从相爱到相杀 死对头,可以写个小故事了 2 个帖子 - 2 位参与者 阅读完整话题
昨天记录了一下用量,今天使用来生成看看用量,但是按照官网的说法 1token = 1 Credits ,不应该会用那么多Credits ,还是说有其他算法? 1 个帖子 - 1 位参与者 阅读完整话题
各位佬,推荐一下 稳定 稳定还是稳定的机场,价格可以贵点,但一定要稳定 1 个帖子 - 1 位参与者 阅读完整话题
昨天试了一下Jetbrains Gateway,好像只能通过terminal启动claude code / codex, 但是延迟很高,打字都一卡一卡的, Jetbrains Gateway有类似vscode的claude code插件吗? 5 个帖子 - 4 位参与者 阅读完整
请教一下佬友们:使用 CPA 反代 Gemini CLI 还有 Codex,有封号风险吗? 我使用个人的账号。 5 个帖子 - 5 位参与者 阅读完整话题
诸位大佬,问一下DeepSeek V4目前国内有几家Coding Plan有的? 周一我要建议公司采购一批非API得Coding Plan来顶着了,这个月预算花不完了,感谢诸位大佬 14 个帖子 - 8 位参与者 阅读完整话题
刚用 Gemini 突然推送出 mac 版本了,下载试了一下,方便性还是增加了挺多。能直接分享窗口了,这个还挺有意思的 Gemini for macOS – your native AI desktop app 4 个帖子 - 3 位参与者 阅读完整话题
之前试用过mac m1 pro跟mac 2018; 感觉很不习惯;然后上学和工作后用的是win,发现网上和朋友有部分一直使用的是mac,对于互联网行业的人来说,就是因为更加符合linux的指令吗,还是说mac的终端更适合跑ai, 美工用mac应该是mac的颜色很准吧。感觉win已
平时我喜欢体验不同的产品,有时候会跟同事分享一下使用体验;最近同事说我一直搞东搞西的(一股说教语气),但是大半夜(11点半多)向我询问claude桌面版怎么配置第三方API 真整无语了,哪里受过这个气 另:佬友们有没有什么讨论的地方,我太能水了;真的不想再跟同事聊这些了 34 个
公司的智能客服项目,目前已经在测试阶段了,目前接的腾讯的千问Max,看了一下账单,成本有点高,打算自己部署个开源模型,佬们有推荐的吗,ds-v4行不行,在L站看了两天,有好评也有差评,纠结了 16 个帖子 - 13 位参与者 阅读完整话题
我在一个频道中,看到有人出固态,致钛的 TiPlus5000 1T,是 740 出,他说是全新未拆封, 质保到 29 年。虽然现在并不急着用,但是看到价格还是觉得挺香的,我 23 年的时候买过一个 5000,当时好像是不到 400 入的,后来就开始一直涨价。所以我想问问佬们,这个
请问一下各位佬友,有没有什么教程或者skills,能够将一本书中讲述的技巧转换为skill,便于我通过这个skill就可以完成某项工作的呢? 4 个帖子 - 4 位参与者 阅读完整话题
IT之家 4 月 25 日消息,华为 AI 眼镜今日 10:08 正式开售,提供钛银灰、流光银、摩登黑三款配色,圆形、方形两种镜框样式,其中钛银灰及摩登黑售价为 2499 元,流光银售价 2899 元。 据IT之家了解,华为 AI 眼镜采用了全新的轻量化新型材料和精密堆叠技术,镜
今天收到邮件,Claude被封了,记录一下… –关于账号,看了下记录,是2025-06申请的账号,用的是接近20年的老gmail。 –关于订阅,4个月之前用美区apple store开了pro订阅,这一期还没结束 –关于ip,一直用的飞鸟机场,4月初机场出事后开始dmit拼车,然
如题,我每天会any站登陆签到一下。 但iphone自带的safari浏览器,过一段时间就会自动退出登录,退出登录后我重新用L站账号登就会显示登录失败,需要清除cookie后再登录。一般来说也确实我设置清除后就可以正常登了,不过经常这样还是很麻烦,想问一下佬友有没有相同情况或者解
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
今天体验了一下gpt-5.5,感觉有以下几点变化: 相同的提示词下回复更加简洁,可读性大大提高,见不到"要不要我下一步帮你怎么怎么样"这种话了 创建文档时没有明显约束和格式的时候还是会加一些废话的,但是一旦给了参考格式文档的质量也不赖 得益于更简洁的回复,貌似
先说一下环境: 物理坐标国内,美区apple id老号转区到尼区,闲鱼礼品卡充值订阅,订阅时美国家宽节点+时区语言地区全部改成美国 美区google老账号登录claude,之前从来没登录过,claude账号应该算新的。 家里和公司两台电脑,均是在自己搭的日本aws中继+落地美国家
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一