[Voilà c'est la vie !] Voilà 的小故事 (1)
故事得从 2024 年 10 月讲起。 那时候我和一个 C 开头的朋友,在做一个量(爆)化(仓)机器人。 网格、加仓、对冲、永续,参数调得花里胡哨,回测曲线漂亮得能裱起来。两个礼拜上线,名字起得很有气势,现在想起来有点不好意思。 当时我们甚至一度冲到了交易所前排。 然后,11 月
vie - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 99 篇相关文章 · 第 1 / 5 页
故事得从 2024 年 10 月讲起。 那时候我和一个 C 开头的朋友,在做一个量(爆)化(仓)机器人。 网格、加仓、对冲、永续,参数调得花里胡哨,回测曲线漂亮得能裱起来。两个礼拜上线,名字起得很有气势,现在想起来有点不好意思。 当时我们甚至一度冲到了交易所前排。 然后,11 月
故事得从 2024 年 10 月讲起。 那时候我和一个 C 开头的朋友,在做一个量(爆)化(仓)机器人。 网格、加仓、对冲、永续,参数调得花里胡哨,回测曲线漂亮得能裱起来。两个礼拜上线,名字起得很有气势,现在想起来有点不好意思。 当时我们甚至一度冲到了交易所前排。 然后,11 月
故事得从 2024 年 10 月讲起。 那时候我和一个 C 开头的朋友,在做一个量(爆)化(仓)机器人。 网格、加仓、对冲、永续,参数调得花里胡哨,回测曲线漂亮得能裱起来。两个礼拜上线,名字起得很有气势,现在想起来有点不好意思。 当时我们甚至一度冲到了交易所前排。 然后,11 月
故事得从 2024 年 10 月讲起。 那时候我和一个 C 开头的朋友,在做一个量(爆)化(仓)机器人。 网格、加仓、对冲、永续,参数调得花里胡哨,回测曲线漂亮得能裱起来。两个礼拜上线,名字起得很有气势,现在想起来有点不好意思。 当时我们甚至一度冲到了交易所前排。 然后,11 月
https://wenku.baidu.com/view/22939cd374232f60ddccda38376baf1ffd4fe32d.html?_wkts_=1777946982531&bdQuery=遗璞贾平凹&needWelcomeRecommand=1
[得到最新情报,竞技场上的3flash 3pro 3.1pro preview全都是三个不同的检查点,Pro系列检查点好像是新上的,所以说原帖的3.1Pro不算,我下面回复的才是新的检查点的] kartoffeln又是那家国模? 我昨天晚上在竞技场刷3flash刷了几十次,发现k
问题 如何根据需求的测试用例去完成自动化测试呢? 背景 我们是一个跨端H5的页面,以webview的形式去嵌套在app中 这个H5涉及bridge调用等原生交互 我们试了几个方案 apm 和 模型整合 问题: apm 的需要模拟器且不稳定 playwright和模型整合 问题:
MIT Technology Review This startup’s new mechanistic interpretability tool lets you debug LLMs Goodfire wants to make training AI models mor
官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age
最近在实验室上部署了Jackrong大佬的Qwopus3.6-27B-v1-preview,测试了一下效果很惊艳啊,开启的200k上下文,多模态,测试下来有几个我觉得挺不错的点: 在写天气卡片这种前端代码时不会过度思考,平均思考时间在几秒钟左右,然后就开始库吃库吃写,写出来的效果
我将资源转存到最近接受,触发 115strm 插件的网盘整理功能,但是提示目录或文件不存在,这是为什么?文件在目录中啊 3 个帖子 - 2 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
一直没用过, 好像也没看有人提过 有没有佬实践过, 这个review代码效果好吗 6 个帖子 - 6 位参与者 阅读完整话题
现在都是重度使用 ai 了, 也不看生成的代码, 也不 review, 甚至不是软件工程师在写程序, 比如产品,运营都在用 ai 写程序, 代码一超过 10 万行, 就会很难 debug, 到处都是冗余, 速度慢, 又容易崩溃, 没法继续堆一下来. 大家觉得代修 bug, 优化速
各位佬,claude code使用cc-switch接入gemini-3-flash-preview模型后,在cli中使用正常问答没问题,但是需要写代码读文件的时候就会报错无效的参数,这是啥原因? 1 个帖子 - 1 位参与者 阅读完整话题
这是gpt-5.5@xhigh一批8次提交写的爬虫-解析-落库流水线代码,流程和功能都不复杂。 因为各家模型的思考强度映射不一样,统一开了max effort。 小米耗时4分钟 全程在说对对对干得好,最后挑了点无关痛痒的代码风格小毛病。 DSV4耗时12分钟 找到了一些非关键问题
Pro 应该是 gemini-3.1-pro-preview