[职场话题] 公司要求交出自己岗位 skill
通知: 公司接下来会通过产研超级个体的模式开发一些业务应用,开发模式是小龙虾+claude code 的模式。会由产品、架构、后端、前端、测试、运维等不同角色协同。你这边可以先花时间整理一下你这边的 skill 。 这个流程跑通了就会被干掉了吧。 这些 skill 好多都是之前的
模式 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 518 篇相关文章 · 第 20 / 26 页
通知: 公司接下来会通过产研超级个体的模式开发一些业务应用,开发模式是小龙虾+claude code 的模式。会由产品、架构、后端、前端、测试、运维等不同角色协同。你这边可以先花时间整理一下你这边的 skill 。 这个流程跑通了就会被干掉了吧。 这些 skill 好多都是之前的
通知: 公司接下来会通过产研超级个体的模式开发一些业务应用,开发模式是小龙虾+claude code 的模式。会由产品、架构、后端、前端、测试、运维等不同角色协同。你这边可以先花时间整理一下你这边的 skill 。 这个流程跑通了就会被干掉了吧。 这些 skill 好多都是之前的
如图,使用的是chrome的无痕模式,自己的域名邮箱,节点用的是机场新加坡节点 5 个帖子 - 4 位参与者 阅读完整话题
前情提要: https://linux.do/t/topic/1967601 来源:DNSHE tg频道 省流总结: 6 个帖子 - 4 位参与者 阅读完整话题
官方的回答: Workstation GC:低延迟、响应优先,适合桌面/轻量服务 Server GC:高吞吐、并行优先,适合多核服务器/高并发服务 服务器模式会占用更多的内存,特别是微服务架构动不动是几十上百个 pod ,这也是一笔不少的内存开销 那么 web 应用就真的不适合用
改深色模式也不行,难道只能降级了? 3 个帖子 - 2 位参与者 阅读完整话题
请问这两种方式的专业术语叫什么? 一种是 列出计划-用户确认-执行计划 一种是 列出计划-无需用户确认-自动执行 4 个帖子 - 4 位参与者 阅读完整话题
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
IT之家 4 月 22 日消息,中国科学院院士、中国科学院大学荣誉讲席教授、中国科学院自动化研究所研究员戴汝为同志,因病医治无效,于 2026 年 4 月 19 日 10 时 11 分在北京逝世,享年 94 岁。 官方资料显示,戴汝为 1932 年 12 月 31 日出生于云南石
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
用脚本测试了下 根据用量情况得出了以下结论 不是按次扣除的,就完全按 token 计费的。 不同模型计费价格不一样。Kimi 2.6 和 GLM 5.1 比 Doubao 贵很多。 缓存没有优惠。 让人觉得火山特别经不起用的主要原因就是 "缓存没有优惠" 了,
最近grok在super上也推出了,4.3的实验版本,我就想去试试,这几天在玩小鸡,就随便问了下grok隔壁在出的是什么小鸡,4.3用了两分钟,专家模式的4.2四个agent只用了17秒,虽然4.3解读了更多,但我觉得不需要… 1 个帖子 - 1 位参与者 阅读完整话题
支持大部分游戏机和flash ,支持联机和手柄(本地模式) 前端项目,数据在浏览器本地,无隐私问题 在线体验: https://player.arksec.net 确保游戏ROM合法,平台不提供ROM,不负任何责任 1 个帖子 - 1 位参与者 阅读完整话题
x的专家搜索经常不够用,就自己注册了些账号,然后用codex 复刻了个grok的网站,自己搜索了用,专家模式的模型给换成了 grok-4.20-0309-reasoning,稍微比较了下应该比他原本的专家模型更强一些!快速匹配的是原本的专家模型,自动还是他原本的auto模型,他的
好久没用, 然后用fast模式问grok一个简单的问题, 一直就提示算力不足 1 个帖子 - 1 位参与者 阅读完整话题
Codex app桌面版 api key 登录模式 为啥插件不能用,还有设置里面Memory也没有,有佬遇到过吗? 5 个帖子 - 3 位参与者 阅读完整话题