使用 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第110页 - 钛刻科技 | TCTI.cn

使用 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第110页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 3641 篇相关文章 · 第 110 / 183 页

Vibe coding 有什么意义?

除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?

tech www.v2ex.com 2026-04-24 13:56:00+08:00

机场私有客户端分流方案

当前机场使用通用订阅的连接都不稳定,使用私有客户端的分流规则又不生效(我这里不生效)。 分流规则对于我来说是硬性要求:公司内部网址在公网的 DNS 上不能解析,即使走机场的私有客户端的 bypass 过滤,还是不能解析到真实的 IP。 但是 V2rayN 的 (“设置”->

tech linux.do 2026-04-24 13:55:59+08:00

Vibe coding 有什么意义?

除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?

tech www.v2ex.com 2026-04-24 13:53:33+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:53:00+08:00

VibeCoding时代的提示词工程还重要吗?

在该帖有感而发 佬友们有没有好的提示词网站推荐? 开发调优 越使用AI,越感觉提示词很重要 佬友们有没有提示词汇总、学习的网站推荐一个 以coding为例,其他领域暂不表态。 我的经验是提示词越来越不重要,我以前自以为提示词很重要,给模型定义其身份、行事风格、实现目标的约束和步骤

tech linux.do 2026-04-24 13:51:06+08:00

大家是白天Any都用不了吗

RT,经过这近一个礼拜的体验,我发现白天就没有能使用过,永远是重试错误 Retrying in 0s · attempt 2/10 用的是国内加速的端点,也试过各种加速/不加速、境外端点/境内端点的所有组合,结论就是我这边只有晚上才能正常使用 想问下各位佬都是这样嘛 ,只有晚上能

tech linux.do 2026-04-24 13:44:15+08:00

claude desktop第三方api调用

佬们,我用的阿里的百炼,模型能使用了,但是就是还是显示模型有问题,有佬知道怎么解决吗?感谢大佬们 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:43:26+08:00

[程序员] Vibe coding 有什么意义?

除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?

tech v2ex.com 2026-04-24 13:40:43+08:00

【求助帖】公司为每个员工开了gpt plus,但是有的同事额度使用很快,有的使用稍慢,有没有什么共享池子的工具,支持win和mac

万事通的佬友们,有没有种工具类似cc swtich,同事们都安装一个软件,把所有的账号都登录上,然后共享池子,这样就不会造成某个同事上午把5小时额度用完了,就只能等着下午刷新 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:37:59+08:00

GPT邮件警告网络滥用最多两次,三次就封号!!

本人200开的20x,一直破限制使用大约一周多隔几天就来警告,今天5点警告最后封了!!! 提醒佬,两次警告就别用破限制了!!! 19 个帖子 - 14 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:36:08+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:36:01+08:00

[程序员] Vibe coding 有什么意义?

除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?

tech v2ex.com 2026-04-24 13:33:00+08:00

AI读《DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence》

使用deepseek-v4 pro的总结,配合gpt-image-2的出图 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:28:33+08:00

GPT 5.5 可能没法破限了

GPT 5.4 使用之前 model_instruction 方法,加上 ctf 相关的 skill,从没翻车过,就连一些恶意的 exploit 都帮写了。5.5 出来之后想试试渗透能力,结果会话被中断了,感觉可能是外审,这样的话可能没法破限了。 2 个帖子 - 2 位参与者 阅

tech linux.do 2026-04-24 13:28:09+08:00

求问关于国内云服务厂商带宽使用的问题

最近帮一个朋友搞服务器,发现国内云厂商的带宽贵的离谱 尤其是要求高一点的,简直抢劫一样 基本上20M规定带宽的,1年都要1.5w左右 问了下大模型,想了几个方案,求有经验的佬们指导一下 1、订购几个小流量的带宽 比如,订购4个5M的,绑定个很弱的服务器,然后再通过云厂商的EIP之

tech linux.do 2026-04-24 13:23:48+08:00

轻度使用了 Kimi k2.6,环境是 opencode go,推理过程给人一种极其难受的感觉

推理不到点子上,整个推理过程就是无限的否定自己,推理能力堪比 qwen 的第一个推理模型 qwq-32b 。不能做到类似 glm5.1 那种言之有物,人看了会觉得真的在思考的效果。 kimi k2.6 还出现了一个非常低级的错误,我让他参考一个 kt 工程,我给了工程的文件夹路径

tech www.v2ex.com 2026-04-24 13:22:28+08:00

cpa反代codex 5.5怎么开启fast模式

我平常是在codexapp里使用的自己的cpa服务器,之前5.4时期就有配过。 当时看到有佬友说config.toml中加入 service_tier = "fast" 然后在cpa中的payload中加入如下配置就行 不知道现在是否还能这样配置 这是我目前的

tech linux.do 2026-04-24 13:15:06+08:00

codex windows app 新版本浏览器使用功能

在新版本设置中发现了浏览器使用,但是似乎无法使用 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:13:53+08:00

有没有对比dsv4p和mimo2.5p,不想用qwen3max了

目前在使用qwen3max内部测试用,打算换了,一个是上下文长度不够,另一个应该是有些情况理解能力还是不够. 想选一个,1m上下文,暂时没有多模态需求,目前看dsv4p和mimo2.5p, 但是没有对比测试. 或者挖个坑,有对比大家 发一下 3 个帖子 - 2 位参与者 阅读完整

tech linux.do 2026-04-24 13:11:18+08:00

[程序员] Vibe coding 有什么意义?

除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?

tech v2ex.com 2026-04-24 13:06:28+08:00