as - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

as - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1244 篇相关文章 · 第 4 / 63 页

Grok 网页端 Fast 有思维链

没看懂,hyw 啊,为啥 fast 会上思维链 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-02 22:40:58+08:00

NAS小白的 QU805 体验报告

缘起 家里的树莓派4B 4G款已经征战5年了,实在是不爱了(,故350咸鱼出掉(真保值啊)。 早就想要买一个NAS服务器玩玩,最后购买了威联通 QU805 N150 DDR5-16G 内存款,JD花费37xx(不是我说2025年11月好像N300也才37xx啊买了才发现亏麻了)。

tech linux.do 2026-05-02 21:28:15+08:00

“gemini3.0flash”坐稳小文字排行榜第一:疑似谷歌更新了其指向模型

5.2 全局文字榜在16名 超越比他更新的模型,比如glm5.1… 用户可用文字榜(没有贵模型)目前排第一 似乎保持很久了 应该没掉过前三 (标题骗你的,这个就是小文字榜w) 网友反映能力「已接近3.1p」 相关视频: https://upos-sz-mirrorcos.bili

tech linux.do 2026-05-02 21:26:54+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-02 21:05:12+08:00

API Error: The model has reached its context window limit.

API Error: The model has reached its context window limit. 这个除了重启,还有办法继续吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-02 20:47:41+08:00

Google 疑似在 Arena(竞技场) 秘密测试新版 Gemini 3.1 Flash:性能跃升,迫近Gemini 3.1 Pro

LMArena发现,一个标注为 Gemini 3 Flash 的模型出现频率异常增高。根据实际测试反馈,该模型的性能表现远超当前版本,甚至直逼 Gemini 3.1 Pro。 有测试者表示,在最近的 7 次抽卡中,该模型出现了 6 次。这种行为与此前 DeepSeek 测试 V4

tech linux.do 2026-05-02 20:37:49+08:00

gpt支付,招行葵花卡master付不出,国内paypal也不行

还有没有办法,求助一下laou,我只想给奥特曼充值 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-02 19:47:23+08:00

Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech www.v2ex.com 2026-05-02 19:40:58+08:00

给Google的commit在release中发布了!

前情提要: 我的PR被Google合并了!!! 仓库是 googleapis/python-genai 似乎有点水但是猫猫真的好激动啊!!! 提交pr真的是一件很神奇的事情诶owo!一想到自己的pr会成为大项目的一部分被全球开发者使用到就会令人激动莫名呢(⁠≧⁠▽⁠≦⁠) 3 个

tech linux.do 2026-05-02 19:04:27+08:00

集思广益:白嫖公司的群晖nas可以干嘛?

rt, 作为办公室的网管,负责管理公司的群晖nas,但最近这台渐渐的被弃用了 原本就是为了应付长官要求的备份任务,没几个人真的在用,逐渐好像只剩我还记得他的存在 前阵子发现nas连不上,跟主管说坏了要重灌,这次重灌之后密码改了,主管也没要我重新架起gitlab给大家帐密连线 因此

tech linux.do 2026-05-02 18:51:22+08:00

Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech www.v2ex.com 2026-05-02 18:40:58+08:00

Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech www.v2ex.com 2026-05-02 17:40:58+08:00

Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech www.v2ex.com 2026-05-02 16:40:58+08:00

5.5 fast 能省钱吗?

Codex 好像有一个 fast 模式,但是我不知道这个是不是能省钱啊。5.5好像有点贵了,比5.4要贵一倍。 12 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-05-02 15:35:23+08:00

[找队友/求方向] Java+Python 全干,想做 AI Agent,求靠谱场景 + 找搭子

RT,个人技术栈 Java / Python 都能写,Spring Boot、FastAPI、LangChain 都摸过,前后端简单页面也能糊。想认真做一个 AI Agent 项目,开源或商用都行,关键是要 真有用 ,别最后成了玩具。 目前想到的方向(但不确定哪个靠谱) AI 视

tech linux.do 2026-05-02 14:35:45+08:00

[OpenAI] Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech v2ex.com 2026-05-02 14:23:09+08:00

分享自己的中国移动包minimax-m25 API 【有效期至6月30日】

api key:sk-I4OefiOzqPvKeZ4tCsN5DzeK9EIxNZGiuPPuZv5ESrZBM 接入地址: https://maas.gd.chinamobile.com:36007/ai/uifm/open/v1 接入协议:openai-completions

tech linux.do 2026-05-02 13:54:54+08:00

[OpenAI] Codex 每个会话里的 Context 满了,自动压缩总是过不去

提示 Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api

tech v2ex.com 2026-05-02 13:53:29+08:00

发现Gemini可以“听”歌识曲

都改过文件名的 偷看一下思维链 (点击了解更多详细信息) 可是因为《Cornfield Chase》特征太明显了,换成《Graze the Roof》就懵了 清空上下文又说是Rick摇 给了点提示能锁定是PvZ 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 12:58:21+08:00

[问与答] 哪些 AI 网关适配 DeepSeek V4 的 reasoning_content 回传?

目前 DeepSeek v4 OpenAI-compatible API 会返回: reasoning_content 和 content 后续请求需保留并回传 reasoning_content ,否则出 400 错误。 目前只看到 axonhub 有相关适配: issues/

tech v2ex.com 2026-05-02 12:26:51+08:00