MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学[…]
HELM全称HolisticEvaluationofLanguageModels(语言模型整体评估)是[…]
ChatbotArena是一个大型语言模型(LLM)的基准平台,以众包方式进行匿名随机对战,该项目方LM[…]
MMLU全称MassiveMultitaskLanguageUnderstanding,是一种针对大[…]
LLMEval是由复旦大学NLP实验室推出的大模型评测基准,最新的LLMEval-3聚焦于专业知识能力评测,涵[…]
OpenLLMLeaderboard是最大的大模型和数据集社区HuggingFace推出的开源大模型[…]
H2OEvalGPT是H2O.ai用于评估和比较LLM大模型的开放工具,它提供了一个平台来了解模型[…]
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2[…]
PubMedQA是一个生物医学研究问答数据集,包含了1K专家标注,61.2K个未标注和211.3K个人工[…]
FlagEval(天秤)由智源研究院将联合多个高校团队打造,是一种采用“能力—任务—指标”三维评测框架的大模型[…]
MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学[…]