关于claude和gpt推理模式差异
gpt把instant和thinking模型区分开了,虽然复杂问题可以自动切换至thinking,但本质上是换了模型,有割裂感,不过这样好处是两类模型术业有专攻。而claude没有区分,由模型自己决定思考深度,体验上更统一,佬们觉得哪种模式好?我个人体感claude家的技术路线似
推理 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 104 篇相关文章 · 第 2 / 6 页
gpt把instant和thinking模型区分开了,虽然复杂问题可以自动切换至thinking,但本质上是换了模型,有割裂感,不过这样好处是两类模型术业有专攻。而claude没有区分,由模型自己决定思考深度,体验上更统一,佬们觉得哪种模式好?我个人体感claude家的技术路线似
,微软此前宣布要把Win11打造成原生AI系统,强塞了不少功能进去,结果引发玩家反弹,现在还在善后中。把操作系统打造成AI OS的公司也不止微软一家,前几天可能是世界最出名的Linux发行版Ubuntu 26.04 LTS发布了,不仅带来了Linux 7.0内核,还宣布了向AI转
今天,我们正式开源 Xiaomi MiMo-V2.5 系列,采用 MIT 协议,支持商用推理部署与二次训练,无需额外授权。 开放协议,全量开源MiMo-V2.5 系列模型已于 4 月 23 日开启公测,感谢所有用户在此期间的热情反馈与鼓励。这个系列包含两款模型,均支持 100 万
平常用CC+oh my cc做开发,用的opus4.6 默认中等推理强度 这几天发现降智太厉害了,有点不太想用了。 光从质量来说,dsv4 pro max vs 降智后的opus4.6 实际体感对比如何呢? 有没有佬友实际测试过。 10 个帖子 - 8 位参与者 阅读完整话题
之前看也就看明星大侦探这类型的推理之类的,还有之前的跑男,最近想看点下饭综艺,佬友们有推荐的吗 7 个帖子 - 7 位参与者 阅读完整话题
TPS Calculator · GPU 推理速度计算器 买不起机子,所以做了这个。 在线地址: tps.bunai.cc 突发奇想赶紧记录下来,直接 vibe code ,说敲就写 一个 vibe code 出来的 GPU 推理性能估算工具。 起因很简单——显卡太贵,买不起,想
Juice 是什么? Juice 值仅仅指示模型思考深度 。一般来说,在很多推理问题下,推理(reasoning)深度越高,推理消耗的 Token 越多,效果越好,但是: 模型智力中,思考深度仅仅是很小的一部分 不同模型的Juice不可直接比较 ,其绝对值也没有意义,Juice
IT之家 4 月 25 日消息,据路透社 4 月 24 日报道,今年第一季度,AI 服务企业对英特尔 CPU 的需求异常强劲,甚至连英特尔把原本已经减记的芯片也卖掉了。这一反转相当罕见,也直接推高了英特尔周五的股价。 英特尔早盘 一度大涨超过 24% ,股价升至 83 美元(IT
以下均为个人推理哈 V4将很多精力放在平台切换上 V4的发布标志着平台切换成功 之后就将主要精力放在模型迭代上了 V4代表着公司能力依旧是顶级水平 严重期待之后的加速迭代 7 个帖子 - 6 位参与者 阅读完整话题
GPT-5.5 默认采用 medium 级推理强度 更高效的推理意味着,在升级之前,应重新评估 low 和 medium 这两个级别。 图像输入默认会保留更多视觉细节: 当 image_detail 未设置或设为 auto 时,模型现在会采用 original 行为,在不调整大小
如题,现在向站内的各位大佬求一个高难度推理题,你可以自行设计一个具备唯一答案的推理题。我借用一下来考一考我朋友。当然各位路过的如果感兴趣也可以试着解一下大佬们出的题。 1 个帖子 - 1 位参与者 阅读完整话题
from openai import OpenAI client = OpenAI( api_key="sk-", base_url="https://api.deepseek.com" ) response = client.chat.c
阶跃星辰发布 StepAudio 2.5 ASR 自动语音识别模型:推理速度提升 400%,定价骤减 90% - IT之家 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 24 日消息,阶跃星辰今日宣布推出新一代自动语音识别模型 StepAudio 2.5 ASR。 该模型的核心突破在于率先将大语言模型的推理加速技术引入语音识别领域,在推理速度与转写精度两个维度均有显著提升,主要面向会议转写、语音交互、输入法、媒体内容处理、长音频
蚂蚁百灵万亿旗舰模型 Ling-2.6-1T 发布:主打“快思考”,对标 GPT-5.4 非推理版 - IT之家 5 个帖子 - 5 位参与者 阅读完整话题
IT之家 4 月 24 日消息,蚂蚁集团旗下百灵大模型团队正式发布面向即时任务执行的万亿级综合旗舰模型 ——Ling-2.6-1T。 Ling-2.6-1T 采用了 MLA(Multi-head Latent Attention)与 LinearAttention 的混合架构设计
感觉 deepseek 选择某为的卡做推理算是真的亏大了,不说拉了坨大了,起码也是完全不符合预期。 一堆人还搁那狂吹… 几个疑惑 or 痛点如下: 官方原话为“体验优于 Sonnet4.5,却弱于 Opus4.6 思考模式”,但是为啥不对比 Opus4.5?根据大佬“大模型观测员
npm install -g @openai /codex@0.125.0-alpha.2 安装 alpha版本 可以在模型列表切换,之后可以正常更新 7 个帖子 - 7 位参与者 阅读完整话题
同样来自Nao佬的网站 接上一篇编程测试: Deepseek v4 Pro的编程评测 - 前沿快讯 - LINUX DO (排行方式:中位分数) 网站: LLM Benchmark Dashboard 1 个帖子 - 1 位参与者 阅读完整话题
推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径