上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn

上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第7页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 287 篇相关文章 · 第 7 / 15 页

【Claude Code】命令速查表

这是源帖子地址: Claude Code 93个全命令速查手册 1. 项目管理与上下文(12个) 基础设置: /init — 生成 CLAUDE.md,让 Claude 记住项目结构和规范 /add-dir — 新增目录到上下文,多文件夹项目必用 /memory — 编辑 CLA

tech linux.do 2026-04-25 16:16:05+08:00

随着GPT5.5的发布,1M上下文的普惠,AI一日千里,如今AI在嵌入式的领域发展如何了

曾经在1月份发过类似的贴着,当时佬们的回答貌似还在吐槽上下文,智能指针。 如今opus4.6[1M] opus4.7 gpt5.4 gpt5.5 以及普惠1M的deepseekV4pro,AI发展一日千里。 嵌入式的佬们现在对于AI的应用感受如何?尤其是做应用层的嵌入式呢? 还有

tech linux.do 2026-04-25 15:59:42+08:00

Claude Code 93个全命令速查手册

1. 项目管理与上下文(12个) 基础设置: /init — 生成 CLAUDE.md,让 Claude 记住项目结构和规范 /add-dir — 新增目录到上下文,多文件夹项目必用 /memory — 编辑 CLAUDE.md,更新架构决策 /context — 查看上下文占用

tech linux.do 2026-04-25 15:57:42+08:00

分享Claude Code上下文管理个人学习笔记

[!IMPORTANT] 原文来自我的 个人博客 ,可以在这里阅读,也可以去博客 由于mermaid流程图是AI生成,本文的mermaid都是截图 不支持移动和缩放 上下文管理 [!NOTE] 本文借助CodeX辅助阅读源码,文章内容纯手工,mermaid图片为AI生成 水平有限

tech linux.do 2026-04-25 15:44:38+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 15:03:41+08:00

Mac 端 Codex Desktop GPT5.5改 1000K 上下文教程

把提示词给Codex,让Codex帮忙改 提示词.txt (1.6 KB) 效果 11 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-25 14:47:36+08:00

关于Claude + gpt-5.5 +400K上下文讨论

首先感谢,佬的详细总结 GPT-5.5 / Codex 上下文相关问题 开发调优 站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文

tech linux.do 2026-04-25 14:33:19+08:00

sub2api使用5.5进行compact步骤

根据 GPT5.5在触发上下文压缩的时候报错404了,这个是OpenAI上游的问题还是sub2的问题呢? · Issue #1865 · Wei-Shaw/sub2api · GitHub 这个issue的评论,把codex_cli_rs/0.104.0改成codex_cli_r

tech linux.do 2026-04-25 13:49:20+08:00

GPT-5.5 / Codex 上下文相关问题

站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能

tech linux.do 2026-04-25 13:48:46+08:00

接入中转站时 Codex 如何使用 Image2 生图呢?

使用官方账号登录的时候,Codex能直接根据上下文 think 并生图,接入中转站的话就不行了,有什么办法解决么? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 12:06:09+08:00

codex老有问题,上下文压缩老失败,是我的网络问题吗

Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api/co

tech linux.do 2026-04-25 11:57:48+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

DeepSeekv4神了

deepseek在长上下文和工具调用上不管是pro和flash差距都非常小,都能准确记住长上下文内容,对于pro有这个表现是正常的,但是flash表现居然也不错!要知道flash的参数量才284B! 而经济上deepseek不管是pro还是flash都非常便宜(对比国外),但是能

tech linux.do 2026-04-25 10:51:41+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00