原来L站都是高收入家庭、
Epoch AI Claude skews high-income; Meta AI skews low-income Household income of weekly AI users ranges from 80% earning $100K+ for Claude to
In - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第231页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 6930 篇相关文章 · 第 231 / 347 页
Epoch AI Claude skews high-income; Meta AI skews low-income Household income of weekly AI users ranges from 80% earning $100K+ for Claude to
在新版本设置中发现了浏览器使用,但是似乎无法使用 2 个帖子 - 2 位参与者 阅读完整话题
大家有称赞有批评,批评主要集中在coding不是很突出上,但作为上一代代表中国最先进水平的国内爆款模型,大部分的user还是集中在QA和世界知识上,而不是coding,也就是说他们想做的可能是一款平民(更通用的)模型,而不是类似于glm的coding model ? 11 个帖子
https://openai.com/zh-Hans-CN/api/pricing/ 2 个帖子 - 2 位参与者 阅读完整话题
想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。
想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
Intel最新酷睿Ultra200系列处理器,即便推出了加强版Plus型号,游戏性能仍明显落后于AMD锐龙X3D系列旗舰。针对这一行业热议的性能差距,Intel副总裁兼总经理罗伯特・哈洛克(Robert Hallock),在接受PC Games Hardware专访时作出正式回应
做云服务这行久了,阿里云国际站代理商 LingduCloud 零度云 发现一个很真实的情况:很多客户一开始对“国际站充值代充”和“官方授权分销商开户”这两个词,都有点又熟又陌生。熟,是因为大家都听过;陌生,是因为真要自己上手时,往往就开始犯迷糊。有人以为充值就是“把钱打进去就行”
火山方舟 Coding Plan 慎买啊,群里全是要退款的,又卡又慢,额度消耗的还特别快
deepseek.spinsnow.fun API 性能监控 从 简单做了个视奸deepseek官api模型速率变动的网页 说起 除了上面的数字,还统计了曲线,方便直观对比(刚开始,数据还很少) 目前是10分钟一次调用,受限于并发限制,glm只能测一次,其他模型都是测3次然后取平
想问一下, vibe coding 出来的代码, 一天几千行, 真有人能每一行代码都调试到吗? 调试的时间是不是比写代码的时间还多了。 大家是怎么解决 vibe coding 后出现的问题的, 有点低概率偶现的问题, 可能一万次才出现一次。
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
请问各位大佬,windsurf客户端,发消息后,没任何反应,点击发送后就闪烁一下,然后就无反应了。 有人说需要重置机器码,现在还有什么办法吗,我根据AI的办法,改了"telemetry.machineId"、“telemetry.sqmId”、"te
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.5-35B-A3B的vllm模型。 官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊.. system角色写提示词要求它精简思考过程也不行。。。。 没招了.. 1
佬们,从昨天开始我使用team的pro模型都被路由到了gpt5-mini,现在team是不能用pro了吗,另外5.5的pro出来了吗,是我梯子问题吗? 3 个帖子 - 2 位参与者 阅读完整话题
除了做 demo ,任何一个需要稳定性的系统都不应该使用 vibe coding 实现。全黑盒,完全不可控。 之前的一家公司,PM 开始自己 vibe coding ,推到上线后结果完全不可维护,到最后还是研发来擦屁股。产品爽了,最后烂摊子研发全接走?
从去年 12 月就开始,营销号就各种“即将发布”,折腾了小半年,听都听吐了,终于要正式发布了。 前几周的官方 Web 版本的体验来看,绝对性能是没期待了,希望价格便宜或者有其他亮眼特性吧。 https://huggingface.co/collections/deepseek-a
Linux Kernel 社区目前正在讨论新的重要提案,这个提案旨在从主线源代码中删除各类历史遗留的网络驱动程序,如果该提案通过的话,可能会导致大量使用 Linux 系统的老旧设备无法正常联网 (在确保安全的情况下)。 删除这些老旧的驱动程序是因为人工智能模型发掘漏洞的速度太快而