最后一个月了,快来组团抱佛脚
1. 添加 GitHub 市场(首次使用需要配置)
/plugin marketplace add coldingcode/ruankao-agent
2. 安装插件
/plugin install ruankao-agent
使用方法
生成模拟试卷
在 Claude Code 中执行:
/generate
命令将依次调用以下智能体:
mcq-agent- 生成 75 道选择题(输出:试题 + 答案分离)essay-agent- 生成 6 道问答题(输出:试题 + 评分标准分离)paper-agent- 生成 1 道论文题(输出:试题 + 评分标准分离)assemble-agent- 汇编生成 HTML 答题界面 + exam_manifest.json + context_pack
答题流程
- 运行
/generate生成试卷 - 确保
index.html和exam_data.js在同一目录下 - 双击打开
output/index.html进行答题 - 答题过程中自动保存进度到本地存储
- 完成后点击"导出作答"按钮,生成
answers.json
评分
考生完成作答并导出后:
/grade
或指定作答文件:
/grade --answers output/ruankao_answers_xxx.json
评分命令将:
- 验证
exam_id一致性(防止试卷错配) - 加载
exam_context_pack.json(含答案和评分标准) - 对作答进行判分和评分
- 生成
score_report.json和score_report.html
查看评分报告
评分完成后会生成:
output/score_report.json- 结构化评分数据output/score_report.html- 可视化的评分报告
评分标准
选择题
- 75 题,每题 1 分,共 75 分
- 自动判分
问答题
- 必答题 1 道(25 分)+ 选答题 5 选 3(每题 25 分)
- 共 75 分
- 要点式评分
论文题
- 75 分
- 六个维度评分:切合题意 (20)、观点正确 (20)、逻辑清晰 (15)、论据充分 (20)、语言流畅 (10)、格式规范 (15)
合格线参考
- 总分 225 分,合格线通常为 135 分左右(60%)
1 个帖子 - 1 位参与者