旧金山初创公司 Goodfire 和他们用于调试 LLM的 Silico 工具
MIT Technology Review This startup’s new mechanistic interpretability tool lets you debug LLMs Goodfire wants to make training AI models mor
review - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 70 篇相关文章 · 第 1 / 4 页
MIT Technology Review This startup’s new mechanistic interpretability tool lets you debug LLMs Goodfire wants to make training AI models mor
官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age
最近在实验室上部署了Jackrong大佬的Qwopus3.6-27B-v1-preview,测试了一下效果很惊艳啊,开启的200k上下文,多模态,测试下来有几个我觉得挺不错的点: 在写天气卡片这种前端代码时不会过度思考,平均思考时间在几秒钟左右,然后就开始库吃库吃写,写出来的效果
1 个帖子 - 1 位参与者 阅读完整话题
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
一直没用过, 好像也没看有人提过 有没有佬实践过, 这个review代码效果好吗 6 个帖子 - 6 位参与者 阅读完整话题
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
各位佬,claude code使用cc-switch接入gemini-3-flash-preview模型后,在cli中使用正常问答没问题,但是需要写代码读文件的时候就会报错无效的参数,这是啥原因? 1 个帖子 - 1 位参与者 阅读完整话题
这是gpt-5.5@xhigh一批8次提交写的爬虫-解析-落库流水线代码,流程和功能都不复杂。 因为各家模型的思考强度映射不一样,统一开了max effort。 小米耗时4分钟 全程在说对对对干得好,最后挑了点无关痛痒的代码风格小毛病。 DSV4耗时12分钟 找到了一些非关键问题
Pro 应该是 gemini-3.1-pro-preview
IT之家 4 月 29 日消息,在目前正在进行的 2026 数字中国建设峰会上,腾讯展示了旗下多款 Agent 智能体生态,腾讯混元 Hy3 preview 语言模型同步迎来展会首秀。 现场工作人员向IT之家展示了腾讯 WorkBuddy 桌面智能体工作台,其号称只需要一句话描述
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
approvals_reviewer = “auto_review” 该变量如果设置为上述配置 在调用时会返回503问题 我搭建的是subapi的个人中转站 503的意思就是 找不到模型 因为codex在使用这个配置的时候请求的模型为auto_review_model而不是主模型
腾讯 QClaw 宣布升级 v0.2.14 版本:率先支持 Hermes,接入 DeepSeek-V4-Pro 与混元 Hy3 preview 模型 - IT之家 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 27 日消息,腾讯云官方今日宣布 QClaw 发布 v0.2.14 版本更新。据介绍,这是该项目迄今为止力度最大的一次版本更新。 本次升级中,QClaw 正式接入支持 Hermes 框架,用户可创建并运行 Hermes 类型的 Agent,实现单一应用内同时运行
周一早上来就看见了,逛了逛发现没多少人提这个模型,这个模型干嘛的? 4 个帖子 - 2 位参与者 阅读完整话题
5 个帖子 - 4 位参与者 阅读完整话题
请教一下各位佬友,有没有佬友研究用CC-Switch中接入GPT5.5模型后使用远程压缩和auto-review模型的方法?目前接入倒是接入了,但是抓包发现,并没有走远程压缩的路由,然后似乎也没有能设置auto-review模型的方法。 3 个帖子 - 2 位参与者 阅读完整话题