全球本地部署开发者们一起,打造一个真正属于开源社区的 Coding Agent 了
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
EN - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第141页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5769 篇相关文章 · 第 141 / 289 页
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
0x00 开始 openbee 是一款让 Agents 成为你的数字员工的解决方案。 0x01 demo 下面是我基于 openbee 今天早上发布 v0.0.32 版本的流程: 0x02 思考 通过在飞书对话让 Agents ( claude/codex/kimi/pi ) 完
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
IT之家 4 月 28 日消息,小米技术官方今日凌晨宣布,小米 MiMo-V2.5 系列开源 & Orbit 百万亿 Token 计划启动。 MiMo-V2.5 系列模型已于 4 月 23 日开启公测,系列包含两款模型,均支持 100 万上下文窗口: MiMo-V2.5-Pro,
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。 第一步:选对入口 DeepSeek 现在有两个模型: deepseek-v4-pro — 主力 deepseek-v4-flash — 快
最近在开发一个小项目,想买几个 ChatGPT 账号。 但是在多个卡网和电报群里转了几圈,发现同一种类型的账号,比如 ChatGPT plus 月卡,就有 N 多种价格。 有的几块钱,有的卖 15 ,有的卖 30 ,有的卖 40. 后来我才知道,这些店铺和卖家的来源其实就是那么几
说是26号下线,还是活到了28号,最后还是下线了。 现在想用的话应该只能API,不知道OpenAI最后会不会给API降降价。 也算是最慷慨的免费视频生成模型了。 R.I.P. Sora 2024.9-2026.4 P.S 现在佬们还有什么免费的视频生成模型推荐吗? 2 个帖子 -
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
一周前停的新用户付费吧,这半夜发的邮件要改token计费了。 12 个帖子 - 10 位参与者 阅读完整话题
ChatGPT 这个 Agent 两个方面的能力感觉非常厉害 一个是联网搜索核对/总结信息,甚至是它自动的,觉得必要时自动搜索 第二个是对于一些逻辑性较清晰/能通过计算得到答案的任务需求,或者通过编程更容易得到答案的任务,它不是靠模型自己在那瞎想推理,而是会自己写 Python
同志们,是时候打造一把真正属于开源社区的 Coding Agent 了! 现状:我们被大厂“喂屎”,还要自己擦屁股 我写过 kaiwu (一个本地模型部署器),结果发现—— 用 Local LLM 做开发的朋友,多得超出想象 。 大家不断提需求:上下文压缩、Think 模式开关、
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
CN: 我最近在 Claude Code 中测试 gpt-5.4 ,但它的响应和完成任务速度非常慢。 我想请教一下已经使用过它的朋友: gpt-5.4 在 Claude Code 中通常会比 Claude 模型更慢吗? 这个延迟是由模型本身、API 服务商,还是 Claude C
ChatGPT 这个 Agent 两个方面的能力感觉非常厉害 一个是联网搜索核对/总结信息,甚至是它自动的,觉得必要时自动搜索 第二个是对于一些逻辑性较清晰/能通过计算得到答案的任务需求,或者通过编程更容易得到答案的任务,它不是靠模型自己在那瞎想推理,而是会自己写 Python
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用
搞了一上午,本地 a100 40g ,输出也慢 40t/s 大概的提示词劳力士风格,罗马数字,月相日历,高贵典雅 月相那块搞了好多轮 结论: 小参数的模型智力不差,Trae IDE agent 连接本地模型,coding 完全可用