参考 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

参考 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 153 篇相关文章 · 第 1 / 8 页

求助 deepseek v4的api如何关闭思考

我参考DeepSeek的文档请求 为什么还有思考啊 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-04 09:57:42+08:00

做了一个 Claude 形象的 codex 宠物

给了几张 Clawd的表情包 gif 作为参考 让 codex 自己用 hatch-pet 做了一个 文件放这里了 蓝奏云 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-03 15:21:56+08:00

用始皇头像当参考图做了一个codex app的小挂件

思考 拖动 打招呼、提醒 报错、任务没成功 regent-pet.zip (1.8 MB) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 20:25:13+08:00

收集一下生图提示词广场,有不错的网站、项目推荐一下

生图的提示词广场,带参考图片、提示词,收费/免费网站或者github项目都可以,学习一下 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-05-02 12:45:49+08:00

Codex的pet挺有意思呀!可以自己设计

如图,把一些参考图片放到一个空目录里面,就可以让Codex自己设计pet啦。 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-02 10:02:22+08:00

ChaGPT非API调用方式如何生成高分辨率的高清图?

如题。 目前有ChatGPT Plus和Pro账号,参考站里其他佬的推荐搭建了 gpt_image_playground项目 ,通过CPA调用API。 现在通过该项目,能够生成2K、4K的图片,但其DPI只有96,屏幕上不放大还行,放大后就会模糊,放进PS更是没法看,更不用说打印

tech linux.do 2026-04-30 20:27:28+08:00

[问与答] 国内 Ai 查重和降重的原理是啥?纯手写 70% Ai 率,纯生图 0% Ai 率,有啥降重好办法?

论文基本是参考文献原文拼凑,几乎整篇在聊案例咋样,70% Ai 率 效果图完全是底图 + 透明图层丢给 AI 进行叠加,最后我看隐水印都有,0 % Ai 率

tech v2ex.com 2026-04-30 14:05:35+08:00

Newapi接CPA使用gpt-image2图生图一直失败

请教下佬友,我用newapi接CPA使用gpt-image2,文生图是可以的的,但是使用参考图进行改图一直不行,出的图和参考图没一点关联,他会给我一张另外的图,这是怎么回事,已经在newapi开启了请求体透传还是不行,是要走edit接口吗?有没有佬友遇到过,请教下 1 个帖子 -

tech linux.do 2026-04-29 18:26:52+08:00

Deepseek的幻觉问题还是严重

网页版deepseek专家模式,在他自己已经给出参考资料的情况下,总结了不属于原文文章的内容,而且前后内容矛盾,不够自洽。 他们源码级别的实践非常值得参考:在一个统一的代码库下,通过命令行参数来决定启动哪种工作负载。编译时可以打出三个不同的二进制文件,分别代表 Web 服务、Wo

tech linux.do 2026-04-29 17:38:54+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 17:10:17+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 16:10:17+08:00

CVE的公开参考可以发在L站吗

我之前的一个工作挖到了几十个漏洞,提交给CVE通过后,他们需要一个public reference,想问问在L站上公开符合要求吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:03:48+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 14:58:44+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 14:55:34+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 14:21:35+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 13:52:08+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 12:48:39+08:00

本地部署模型,想开发一个自用的llm对话界面,有哪些现成的代码仓可以参考使用吗

其实就是本地化LLM模型+自定义的web,需要一个llmweb对话的前端,因为有自定义的需求,找一个满足base功能的llm对话界面做二次开发。目前用的多且简单的有哪些吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 12:36:33+08:00

v4真的不行

接入cc,如果你让他改改本来就有的东西还行。 让他从0到1,即使给了他大量的代码参考,做出来的只能是一坨,让他在这一坨上改更是一坨 这方面的体验上我认为从v3到现在没有什么改善和进步 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:53:33+08:00

第五次重装 hermes, 有些经验希望给准备用的人参考一下.

4 月初的时候我搞了个小龙虾, 结果这家伙经常死机, 用起来很累. 后来 hermes 出来的时候,我开始试用, 感觉比龙虾好用好多, 最起码看起来算个能干活的, 中间几次版本迭代更新,以及试用各种本地模型, 来回折腾重装了很多次, 最终决定还是长期使用它, 有了这个定论之后,

tech www.v2ex.com 2026-04-29 10:28:01+08:00