给hexo部署waline评论系统
搭建waline 官网已经给出很详细的搭建教程了 教程 启用 waline 评论 在博客配置文件 _config.stellar.yml 中启用 waline 评论 ######## Comments ######## comments: service: waline # be
config - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 23 篇相关文章 · 第 1 / 2 页
搭建waline 官网已经给出很详细的搭建教程了 教程 启用 waline 评论 在博客配置文件 _config.stellar.yml 中启用 waline 评论 ######## Comments ######## comments: service: waline # be
Claude desktop Couldn’t update saved configurations 不知道为什么, 无法保存配置, 使用管理员打开也没用 有大佬遇到类似的问题么 1 个帖子 - 1 位参与者 阅读完整话题
求助佬友们,今天vibecoding时,我在config.toml中疑似误删了某些代码,结果触发了无法设置管理员沙盒和备份沙盒的错误。我找了一下方法,都不太行,比如重置.codex。由于项目没完成,我又不想丢失已有的上下文管理和一些skills和mcp,所以不走这个方案,佬友们有
古法时代, 一般会给一个 config.example 或者自动生成. 里面包含启动的最小参数, 进阶项通过取消注释, 至少能排除干扰项完成启动. 现在连配置文件都通过 /claude-hud:setup , 配置通过 /claude-hud:configure , 也不知道是我
codex window版 gui,除了remote connection远端链接这种,需要在config里面激活,还有什么功能,或者有用的模块可以在config里面激活使用 1 个帖子 - 1 位参与者 阅读完整话题
环境是vscode的Codex插件,plus会员,config.toml如图 1 个帖子 - 1 位参与者 阅读完整话题
仓库 https://gitee.com/lyxxxh/claude_usage Claude.ai 多账号限额查询 config.example.json 改名 config.json 修改 config.json 代理修成你电脑的,并填写 session_key 和 org_
CPA 数据怎么备份,需要在家里和公司两地使用,请问怎么备份已经登录的账号,只备份config.yaml行吗 4 个帖子 - 4 位参与者 阅读完整话题
我是使用cc switch管理的mcp,同样mcp在cc中都正常,cx中通过/mcp都能显示出mcp及相关工具,config.toml中也都是配置正常的,但是ai在执行命令时候却列出list为空,有佬友知道怎么回事吗? 1 个帖子 - 1 位参与者 阅读完整话题
cc的思考是不是没法显示了,有思考没有输出,本地thinking字段也没有思考内容了,开启了/config里的思考显示 2 个帖子 - 2 位参与者 阅读完整话题
我遇到的问题是: config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。 最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
请问下cpa显示gpt5.5 codex回答5.4 这个到底调用的是5.4还是5.5 我是在config里面配置的gpt5.5 用的vsc插件 1 个帖子 - 1 位参与者 阅读完整话题
之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题
一直改的config.toml 之前5.4 1M效果不佳就关了,今天看GPT5.5 1M上下文的召回率提高了就又打开了,但是似乎无法生效? 有知道怎么开启的佬吗? 2 个帖子 - 2 位参与者 阅读完整话题
[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?
有没有佬开发出了最新的gpt5.5在codex中的配置文件(config.toml) 7 个帖子 - 5 位参与者 阅读完整话题
GPT5.5在Codex app中疑似开不了1m上下文?我改完config了,GPT5.4是可以正常触发1m的(ui界面显示950k),但是GPT5.5死活都是258k……。 我看oai网页介绍说5.5给Codex开放了400k上下文,但是我调整到400k之后,GPT5.5依旧显
apparition: codex config.toml 写的一直都是 fast CPA 才写 priority 如图 4 个帖子 - 3 位参与者 阅读完整话题
codex config.toml 直接指定gpt5.5即可 model = “gpt-5.5” model_reasoning_effort = “xhigh” 7 个帖子 - 5 位参与者 阅读完整话题