最牛的终端开源了 warp,用过的来说说
不需要输入 claude 再开始,直接 bash 输入,我要查询磁盘空间,自动帮你 du 执行,不用再记命令了,帮我解压文件,查找 cpu 高占用进程,发挥你的想象。 似乎只是使用路径变短,接入 bash ,不知道跟腾讯和阿里的 bash ai 什么区别。 用过的大佬说说场景
de - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第95页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 9006 篇相关文章 · 第 95 / 451 页
不需要输入 claude 再开始,直接 bash 输入,我要查询磁盘空间,自动帮你 du 执行,不用再记命令了,帮我解压文件,查找 cpu 高占用进程,发挥你的想象。 似乎只是使用路径变短,接入 bash ,不知道跟腾讯和阿里的 bash ai 什么区别。 用过的大佬说说场景
想问问有使用过rawchat套餐的佬友出来说说,rawchat套餐的使用体验怎么样呀,我看有人说计费有点问题是真的吗,大概差多少呢,想入手有点犹豫 遂发问 1 个帖子 - 1 位参与者 阅读完整话题
报错 [status 403] this model requires a subscription, upgrade for access: 登录 最好的gemini-3-flash白嫖渠道已死 9 个帖子 - 6 位参与者 阅读完整话题
Code from langchain_openai import OpenAI llm = OpenAI( model="mimo-v2.5-pro", api_key=XIAOMI_API_KEY, base_url=XIAOMI_API_URL, tem
DeepSeek V4发布已经一周时间了,期间三次降价或者优惠,还发了视觉大模型,本代大模型布局基本完成。相比去年的DeepSeek R1,这次的DeepSeek V4发布之后争议更多,主要是没有之前R1那种技术上领先的感觉了,各种AI榜单上实际上也落后于美国公司开发的AI大模型
昨晚 DeepSeek 多模态研究员陈小康在 X 上发了一条推,并公布了DeepSeek 关于多模态技术的新论文《Thinking with Visual Primitives》,表示“Excited to release”。 今天一早,推文删了,GitHub 上的论文也撤了。
OpenAI的智能体Codex,这次直接硬刚Claude Cowork。Codex是OpenAI的旗舰代码生成模型,支持GitHub Copilot等产品,已成为全球开发者不可或缺的AI助手。这次的更新,非常重磅。YouTube创作者Mike Russell发布了一条实测视频,效
同一个 ui 图, 同样的提示词,同样的第三方 4.7 模型, 使用 claude code 终端版,一次完美生成 换用 claude 桌面版, 跑了两次, 速度慢,效果也不好,它总是把 ui 图切成 N 个部分,生成结也有偏差。 claude 桌面版是不好用吗, 还是需要怎么调
同一个 ui 图, 同样的提示词,同样的第三方 4.7 模型, 使用 claude code 终端版,一次完美生成 换用 claude 桌面版, 跑了两次, 速度慢,效果也不好,它总是把 ui 图切成 N 个部分,生成结也有偏差。 claude 桌面版是不好用吗, 还是需要怎么调
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5
3月入了L站后接触到了codex后,觉得以前使用古法chat模式做开发真的是太惨了,同时内心中压抑的很久的想法终于压制不住了,于是在4月19,创建了一个llm工程。工程的作用是什么呢,对,就是妄图在gpt的帮助下手搓一个llm。因为当时最强的开源国模,就是glm5.1,而且还是m
五月的第一天,在使用之前都不会看一眼的GPT-5.2-Codex进行了仅仅3个request后,Copilot提示我: 而此时, 所谓Premium requests的额度已经名存实亡,各种weekly limit, daily limit,甚至我不知道是否存在,就算现在不存在之
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5
好奇对比效果,这俩现在的定位是差不多的吧,都是opus4.7和gpt5.5外的次优选择 7 个帖子 - 7 位参与者 阅读完整话题
一直在写自己的比赛的一个视觉识别的小项目,每次codex或者cc上下文快要用完的时候我就让他写一个或者更新handoff文件,然后新开一个会话读取handoff文件继续干。 但是我问了下grok,它说这样缓存命中会很低,那请问具体应该怎么做呢?一个项目就在一个会话里? 6 个帖子
有没有微信的人帮忙看看,我 debug 了看,似乎不是我 linux 的问题,也不是字体的问题。AI 告诉我是微信 for linux 客户端的问题。 原始文本如下,前两行是 tab 分隔,第三行显式输入的空格 在微信 for linux 4.1.1.4 版本(官网显示 4.1.
不需要输入 claude 再开始,直接 bash 输入,我要查询磁盘空间,自动帮你 du 执行,不用再记命令了,帮我解压文件,查找 cpu 高占用进程,发挥你的想象。 似乎只是使用路径变短,接入 bash ,不知道跟腾讯和阿里的 bash ai 什么区别。 用过的大佬说说场景
五月份之后可能需要正版充值Codex 的 plus 或者说 5X 是不是用 AppStore 然后某宝上买充值的卡会比较合算?现在是哪个区比较便宜啊?有大佬知道吗?然后这样子充值的话,我新注册一个 163 的邮箱是不是就可以了 8 个帖子 - 6 位参与者 阅读完整话题
同一个 ui 图, 同样的提示词,同样的第三方 4.7 模型, 使用 claude code 终端版,一次完美生成 换用 claude 桌面版, 跑了两次, 速度慢,效果也不好,它总是把 ui 图切成 N 个部分,生成结也有偏差。 claude 桌面版是不好用吗, 还是需要怎么调
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:5