[投资] ASTS:不是没有利好,是市场还没看到第一颗真正落地的卫星
ASTS 市场情绪低迷,但我对未来充满希望。 原因如下:市场希望看到实际行动,也就是卫星的交付和发射。为了实现年底前 45 颗卫星入轨的目标,一切都必须开始推进。我理解市场担忧,并且不信任此前公布的最后期限,因为这些期限历来过于乐观。即使是 FCC 的批准也未能让市场满意,这也不
真正 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 104 篇相关文章 · 第 2 / 6 页
ASTS 市场情绪低迷,但我对未来充满希望。 原因如下:市场希望看到实际行动,也就是卫星的交付和发射。为了实现年底前 45 颗卫星入轨的目标,一切都必须开始推进。我理解市场担忧,并且不信任此前公布的最后期限,因为这些期限历来过于乐观。即使是 FCC 的批准也未能让市场满意,这也不
买了一个Cursor中转站,说是连接官方服务,opus 4.7,Gpt5.5都能用,但是使用起来感觉不像是真的,大家有啥辨别方法没有?目前已经试过了,直接问你是什么模型? 你的训练数据截止日期? 但是感觉都被系统prompt给强制限制了,拿不到真生的反馈.大家有啥好的方法吗? 如
我们是 MachinePulse 团队,今天我们正式推出 World2Agents Protocol (下文简称 W2A ),一个开放的、AI 原生的信号感知协议。 今天大部分 Agent 都是被动响应的,因为它们"看不到"世界正在发生什么。W2A 就是给 A
最近看了一圈 L 站的开发调优区,感觉这里真正容易被认可的内容,不是单纯热闹,也不是“大家怎么看”这种泛聊,而是能让别人马上拿走一个细节的东西。 我自己总结了一个比较稳的写法: 一个具体场景 + 一个可验证细节 + 一个边界提醒 比如后端/运维类回复,不一定要很长,但最好带上这些
IT之家 4 月 29 日消息,腾讯公司公关总监张军今日发布预告, 称腾讯文档即将变成原子组件 。 张军并没有在第一时间介绍原子组件,有网友将其与 vivo 联想在了一起。但随后他再次发文,宣布腾讯文档正式“塞进”WorkBuddy, 变成 AI 工具的一个真正的原子组件 。 I
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
千万不要偷懒,不要懒得去动脑思考。很多时候思考过后才是真正的内化为自己的东西。一时地偷懒,不思考,它的代价一定会在以后某个时刻还回来。反之,克服大脑带来的懒惰,多去用脑思考,会在以后某个时刻给予回报。 我觉得张朝阳的一个观点很不错,就是学习或者看书的时候,应该看个1/3就好了,然
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、