DeepSeek Web/APP 快速模式性能异常(DeepSeek Web/APP Instant Mode Performance Abnormal)Subscribe Investigating - We are currently investigating this issue. Apr 20, 2026 - 20:40 CST
难道说? 25 个帖子 - 11 位参与者 阅读完整话题
en - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第340页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 7463 篇相关文章 · 第 340 / 374 页
难道说? 25 个帖子 - 11 位参与者 阅读完整话题
Hermes + Spice来了!各位佬友久等了! 最近有一个很明显的趋势是:Agent的执行能力在快速进化 从 Openclaw 到 Hermes,任务执行质量在不断提升,尤其是Hermes的Agent evolution能力。 与此同时有一个问题也越来越明显: 我们都在解决“
更新 Codex App 到最新,远程机的 Codex 版本在 0.121 以上 在配置文件 ~/.codex/config.toml 中加入 [features] remote_connections = true 重启 App 就可以在设置中找到 Connections 配置
相比 Qwen3.6-Plus,预览版在智能体编程方面取得显著提升(如 SkillsBench +9.9、SciCode +6.3、NL2Repo +5.0、Terminal-Bench 2.0 +3.8),世界知识更强(SuperGPQA +2.3、QwenChineseBen
Cursor Pro $20 一个月,500 次快速请求用完就降速。重度用的人,月中就开始焦虑额度。 但 Cursor 的模型不是只能用它自己的配额。 有办法把外部的免费模型接进去,额度用完无缝切换,不中断编码。 先说能接什么 目前能免费拿到的顶级编码模型: 来源 模型 费用 怎
Cursor Pro $20 一个月,500 次快速请求用完就降速。重度用的人,月中就开始焦虑额度。 但 Cursor 的模型不是只能用它自己的配额。 有办法把外部的免费模型接进去,额度用完无缝切换,不中断编码。 先说能接什么 目前能免费拿到的顶级编码模型: 来源 模型 费用 怎
更新 Codex App 到最新,远程机的 Codex 版本在 0.121 以上 在配置文件 ~/.codex/config.toml 中加入 [features] remote_connections = true 重启 App 就可以在设置中找到 Connections 配置
抽奖 | 想要什么奖品由你定,懒猫微服送福利 想玩 AI Agent 又怕门槛高?那是你没遇上“小龙猫”。 龙虾( OpenClaw )不失联,爱马仕( Hermes )更好用! 懒猫小龙猫一键部署,多人群聊,安全隔离,永远不挂,让你的 AI 助手 24 小时为你打工! [三等奖
想要问下 ai 的三省六部制,也就是协同的只有原本 openclaw 才能实现吗? 想法是,使用一个好一点的模型作为决策 agent ,然后分析好好后,让这个 agent 去指挥其他普通模型的 agent 这样 也就是互相协调这样,
抽奖 | 想要什么奖品由你定,懒猫微服送福利 想玩 AI Agent 又怕门槛高?那是你没遇上“小龙猫”。 龙虾( OpenClaw )不失联,爱马仕( Hermes )更好用! 懒猫小龙猫一键部署,多人群聊,安全隔离,永远不挂,让你的 AI 助手 24 小时为你打工! [三等奖
单一中转站不稳定,严选多个中转站 1-4 折用 claude 大模型 直接用多个中转站+高可用 兼顾性价比的调度策略,上游价格透明展示,账单明晰,每一笔调用量都看得见。 欢迎大家试试 1openapi.com 统一对话 1OpenAPI 接入 更好价格,更高可用性,无需订阅
去年 12 月买了智谱的 coding plan ,lite.,一直没怎么用。4 月份智谱说 lite 用户可以用 glm 5.1 了,用了一下感觉不错。 结果可能是用的太猛,已经被封了 2 次了,说是检测多人使用,但肯定只有我一个人用。 第一次解封后,降低了使用频次,结果今天又
11 个帖子 - 8 位参与者 阅读完整话题
更新 Codex App 到最新,远程机的 Codex 版本在 0.121 以上 在配置文件 ~/.codex/config.toml 中加入 [features] remote_connections = true 重启 App 就可以在设置中找到 Connections 配置
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
有没有办法,我找到论文后直接全给agent,agent自己分析后得出idea,然后自己进行实现、测试、优化、修正 6 个帖子 - 3 位参与者 阅读完整话题
也说不出来哪里奇怪,就是很怪异,用的 VoltAgent/awesome-design-md 随便找的 DESIGN.md 有佬分享下让GPT审美提高提高的方法吗? 第二次沉默 18 个帖子 - 14 位参与者 阅读完整话题
更新 Codex App 到最新,远程机的 Codex 版本在 0.121 以上 在配置文件 ~/.codex/config.toml 中加入 [features] remote_connections = true 重启 App 就可以在设置中找到 Connections 配置
比如看 dgx spark 这台机子,部署 31B BF16 gemma 这台机子的带宽 273 GB/s 31B 参数 × 2 bytes (BF16) ÷ 273 GB/s = 每个 token 227 ms = 理论最大 4.4 token/s 实际能到 3token/s
我在 mini 主机上安装了 OpenClaw 对接了飞书和微信,有时候他自动升级后就挂了,比如变更了权限导致飞书问问题卡且不回复,但是如果是在外面没法远程家里的机器,无法 SSH 连接,虽然有 Cloudflare Tunnel Tailscale 但是我试了比较卡,所以我自己