DeepSeek V4 Thinking Max+OpenCode小功能代码测试
用DeepSeek V4测试了一下代码能力,让它给我的一个后端项目加个RSS功能,实测下来感觉还不错,能很好的理解项目架构(也有OpenCode的功劳),做出的改动符合当前项目架构,没有出现写屎山或者自己造轮子情况,不过没有自行生成单元测试,gpt的话大部分时间会自动生成单元测试
测试 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第19页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 695 篇相关文章 · 第 19 / 35 页
用DeepSeek V4测试了一下代码能力,让它给我的一个后端项目加个RSS功能,实测下来感觉还不错,能很好的理解项目架构(也有OpenCode的功劳),做出的改动符合当前项目架构,没有出现写屎山或者自己造轮子情况,不过没有自行生成单元测试,gpt的话大部分时间会自动生成单元测试
目前在使用qwen3max内部测试用,打算换了,一个是上下文长度不够,另一个应该是有些情况理解能力还是不够. 想选一个,1m上下文,暂时没有多模态需求,目前看dsv4p和mimo2.5p, 但是没有对比测试. 或者挖个坑,有对比大家 发一下 3 个帖子 - 2 位参与者 阅读完整
公司后端写的接口部署到测试环境了,访问之后发现跨域了,把浏览器的跨域截图发给后端开发,问我报什么错了?难道都 2026 年还不理解跨域是什么原理吗?还需要我给他科普一下吗?心累。
色盲题85秒一次通过. Opus 4.7在CC上开max个人测试了3次以上,无法通过. 洗车题更是毫不费力. 9.9-9.11用的instant也是对的 这三题都是我在CC上测试Opus 4.7答不对的问题. 3 个帖子 - 3 位参与者 阅读完整话题
内测群发的: DeepSeek-V4测试报告 model1: 优势: 该模型纯编程能力远强于Kimi-k2.6和GLM-5.1 模型上下文超长,利于大量文档阅读 劣势: 该模型未经过Agent使用环境优化 特征一:“亲历亲为”:模型极少使用SubAgent,导致上下文迅速膨胀 特
在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图
逻辑题都做出来了 我之前没关注测试过这个wiki 这应该算进步了?至少逻辑能力提升了 下面是转盘的前端 1 个帖子 - 1 位参与者 阅读完整话题
公司后端写的接口部署到测试环境了,访问之后发现跨域了,把浏览器的跨域截图发给后端开发,问我报什么错了?难道都 2026 年还不理解跨域是什么原理吗?还需要我给他科普一下吗?心累。
提示词 (点击了解更多详细信息) Pro3.7s完成任务 而Flash一直在猜测,思考了100多s,我就懒得继续了,直接终止对话 其实是怕本来不多的余额没了 GPT那边的回答见 GPT 5.5 / Pro 你这让我怎么相信你?16+2=24 你怎么敢说的?做这个题你还不如阉割版o
提示词: 四格漫画|Pixiv日系风|女忍者大战森林怪物| 受伤|损坏衣物| 热血冒险 5 个帖子 - 5 位参与者 阅读完整话题
来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题
提示词: 你是一名精通图形学算法与 Web 交互的前端专家。请仅用一个 HTML 文件,基于 Three.js (ES Modules) 实现一个物理级高保真、支持自然手势的 3x3 魔方。 一、 交付规范 单文件架构:HTML/CSS/JS 必须合并在一个文件中。 依赖管理:必
总共花了4毛钱 1 个帖子 - 1 位参与者 阅读完整话题
请问一下大家是怎么让多agent之间是怎么沟通,比如定义了3个profile,分别是总监、研发、测试,他们是怎么进行沟通的呢? 目前3个agent都接入了飞书,网上搜索了一轮没发现它们在飞书中能进行沟通的配置。 想法是飞书上和总监沟通,然后总监推进需求和设计 -》 研发接受总监的
论坛上有佬友公益站上线deepseekv4-pro,用base64压缩cdk发放链接,我就试着用deepseek新模型解下码,结果一般,最终还是暂停掉了 这是gpt5.5-thinking的,很快就出来了 2 个帖子 - 2 位参与者 阅读完整话题
接入CC使用,提示词很简单“写一个超级玛丽游戏”,感觉有点一般啊 源码 super-mario.txt (26.2 KB) 2 个帖子 - 2 位参与者 阅读完整话题
完了 几乎全错 期望越高失望越大啊 2 个帖子 - 2 位参与者 阅读完整话题
我并不是想搞七搞八, 只是想体验下生图的极限在哪里, 或者是一个测试人员 1 个帖子 - 1 位参与者 阅读完整话题
上班公司内网连百度都访问不了,遂用自己的手机流量来上班。 我的是移动的电话卡,梯子使用的节点是自己搭建的。 访问 google 的时候每隔十几分钟,就有卡顿,现象是访问 google 的时候,一直转圈圈,页面白屏;但是访问国内网站都是很流畅的。 可能原因:1. 手机发热导致网络卡
使用的是下面的prompt 生成的页面如下 思考时间还有输出时间整体用了大概5分钟的时间,对比gpt5.4xh模型效果还是有差距。 相较于gemma 4 31b 还有qwen3.6 27b的模型还是要好不少,速度上比较接近 qwen的小模型生成的有bug,gemma 4 31b没