C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2023年5月份联合推出,包含了13948个多项选择题,涵盖了52个不同的学科和四个难度级别,用以评测大模型中文理解能力。
SuperCLUE是一个中文通用大模型综合性评测基准,从三个不同的维度评价模型的能力:基础能力、专业能力和中[…]
H2OEvalGPT是H2O.ai用于评估和比较LLM大模型的开放工具,它提供了一个平台来了解模型[…]
MMLU全称MassiveMultitaskLanguageUnderstanding,是一种针对大[…]
LLMEval是由复旦大学NLP实验室推出的大模型评测基准,最新的LLMEval-3聚焦于专业知识能力评测,涵[…]
OpenLLMLeaderboard是最大的大模型和数据集社区HuggingFace推出的开源大模型[…]
ChatbotArena是一个大型语言模型(LLM)的基准平台,以众包方式进行匿名随机对战,该项目方LM[…]
您的邮箱地址不会被公开。 必填项已用 * 标注
评论 *
显示名称 *
邮箱 *
网站
在此浏览器中保存我的显示名称、邮箱地址和网站地址,以便下次评论时使用。
SuperCLUE是一个中文通用大模型综合性评测基准,从三个不同的维度评价模型的能力:基础能力、专业能力和中[…]