LLMEval是由复旦大学NLP实验室推出的大模型评测基准,最新的LLMEval-3聚焦于专业知识能力评测,涵盖哲学、经济学、法学、教育学、文学、历史学、理学、工学、农学、医学、军事学、管理学、艺术学等教育部划定的13个学科门类、50余个二级学科,共计约20W道标准生成式问答题目。
PubMedQA是一个生物医学研究问答数据集,包含了1K专家标注,61.2K个未标注和211.3K个人工[…]
CMMLU是一个综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力,涵盖了从基础学科到高级[…]
HELM全称HolisticEvaluationofLanguageModels(语言模型整体评估)是[…]
MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学[…]
OpenLLMLeaderboard是最大的大模型和数据集社区HuggingFace推出的开源大模型[…]
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2[…]
您的邮箱地址不会被公开。 必填项已用 * 标注
评论 *
显示名称 *
邮箱 *
网站
在此浏览器中保存我的显示名称、邮箱地址和网站地址,以便下次评论时使用。
PubMedQA是一个生物医学研究问答数据集,包含了1K专家标注,61.2K个未标注和211.3K个人工[…]