微软真是大善人,积分换礼品卡成功
之前古法编程一直用bing,没想到积分够了,顺便换了礼品卡,大家可以试试 7 个帖子 - 4 位参与者 阅读完整话题
大家 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1908 篇相关文章 · 第 1 / 96 页
之前古法编程一直用bing,没想到积分够了,顺便换了礼品卡,大家可以试试 7 个帖子 - 4 位参与者 阅读完整话题
五一大家都取哪玩了?为何我怎么感觉广州的人少得可怜,昨天去了一个景区玩,也好少人啊,都出去旅游了还是回老家了呢 10 个帖子 - 10 位参与者 阅读完整话题
如题,家中一直有一台小的自己搭的服务器,之前一直是做一些小算力的任务; 发现之前配置是按照记128G内存配的,所以配置过一些小的项目。 overleaf, HomeAssistant, 骰娘还是openclaw这些都配过了 那么还有没有一些有趣的项目可以推荐一下啊 当然,我也在写
现代生活节奏很快,面对一部电影解说很多人都会用倍速快速看完。在这样一个快节奏的社会里,大家会不会文艺复兴选择写信来表达自己的情感(可以寄给恋人或者挚友)。
果然做LLM还是要去企业做,学校还是太穷了,五一期间趁大家下班卡多,跑两篇neurips 10 个帖子 - 4 位参与者 阅读完整话题
现代生活节奏很快,面对一部电影解说很多人都会用倍速快速看完。在这样一个快节奏的社会里,大家会不会文艺复兴选择写信来表达自己的情感(可以寄给恋人或者挚友)。
好多账号总是爆错EOF,非常影响使用,大家有遇到过吗?如何解决呢 3 个帖子 - 3 位参与者 阅读完整话题
大家有用过openclaw搭建神经网络吗,交流一下过程 3 个帖子 - 3 位参与者 阅读完整话题
祝大家勞動節快樂,我們這邊放假3天 你們那邊放假幾天呢? 2 个帖子 - 2 位参与者 阅读完整话题
佬友们,我用gpt写论文,总是感觉写出来的东西和我要的差点意思,这怎么办,大家都是怎么写出满意的东西的 2 个帖子 - 2 位参与者 阅读完整话题
大家好,分享一个我最近完成并上线的私人项目: iVibe.fans 。 这是一个基于 Hono 构建、全量部署在 Cloudflare Workers 上的流媒体路由服务。它的核心逻辑是: 不存储任何资源,只做资源的智能路由与中转。 目前 JAV 版本已上线,电影版正在路上。 🛠
我个人感觉CC和CodeX是最好用的,最近用CodeX特别多,因为使用成本低,但是CodeX接入其他模型API比如GLM5.1/DS V4似乎不太友好,需要自己配网关,各位朋友有什么推荐的AI编程工具吗? 34 个帖子 - 18 位参与者 阅读完整话题
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
目前生图使用cpa出来的gpt-image-2的api调用,图片存储使用的是cloudflare免费的R2存储桶,技术使用fastapi+flutter构建,大家觉得好用的话,后面给他开源出来供大家参考。 web端: https://imgserver.qixz.eu.org 安
最近codex桌面端上线了 宠物 功能,还支持用 skill 捏专属宠物, 站内保姆级教程在这: Codex桌宠功能的简单指北! 站里已经有好多佬友在晒自己的宠物了,刷到几个忍不住试着复刻,废了不少 token 还是差点意思 宠物帖散落各处,可惜有点难找。正好开个集合帖, 以后大
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
有没有,前辈告诉我 Gemini claude gpt会选择哪一个。 2 个帖子 - 2 位参与者 阅读完整话题
五一期间有佬友还在玩L站吗?大家五一过的怎么样? 2 个帖子 - 2 位参与者 阅读完整话题
API Error: The model has reached its context window limit. 大家对于这个有办法吗? @team-lead ❯ 关闭 data-worker ⎿ API Error: The model has reached its co
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林