[分享创造] 5.1 假期,兄弟做了一个技术创新, Makefile 是最合适的 SKILL 文档格式,今后“Evolving Engineering”靠他了!
项目地址: https://github.com/Teaonly/SKILL.make 这个项目的思想,用 Makefile 来风格化 SKILL 文档,利用 Makefile 内置的 DAG 功能,并且搭配 一定意义上的语法,优点如下: 可以降低原始 MD 格式的 Token
最合适 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 16 篇相关文章
项目地址: https://github.com/Teaonly/SKILL.make 这个项目的思想,用 Makefile 来风格化 SKILL 文档,利用 Makefile 内置的 DAG 功能,并且搭配 一定意义上的语法,优点如下: 可以降低原始 MD 格式的 Token
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输
目前已有:GLM Coding Plan(老版Pro套餐一年),GPT 中转站一个 日常需求:轻中度开发和Hermes Agent。 国内的部分看好Kimi和阿里云的 ¥199,预算想压在¥200 以内每月,上个月 Token 差不多是 1.5-2B。 好像把 200 块换成 2
主要用来 vide coding ,免费的还是不太行,上周 copilot gg 了有没有替代哇?
一般都是搭配自己家的最合适 可惜本家没出 有没有佬试过多家对比 哪个效果好? 5 个帖子 - 4 位参与者 阅读完整话题
主要用来 vide coding ,免费的还是不太行,上周 copilot gg 了有没有替代哇?
主要用来 vide coding ,免费的还是不太行,上周 copilot gg 了有没有替代哇?
主要用来 vide coding ,免费的还是不太行,上周 copilot gg 了有没有替代哇?
主要用来 vide coding ,免费的还是不太行,上周 copilot gg 了有没有替代哇?
如何量化 diff 的"复杂度"(变更行数、波及模块数量、涉及文件类型、改动是否是核心业务逻辑) 是需要一个小模型做路由 还是做静态路由好一点,有没有佬有相关实现方案。 1 个帖子 - 1 位参与者 阅读完整话题