FlagEval(天秤)由智源研究院将联合多个高校团队打造,是一种采用“能力—任务—指标”三维评测框架的大模型评测平台,旨在提供全面、细致的评测结果。该平台已提供了 30 多种能力、5 种任务和 4 大类指标,共 600 多个维度的全面评测,任务维度包括 22 个主客观评测数据集和 84433 道题目。
ChatbotArena是一个大型语言模型(LLM)的基准平台,以众包方式进行匿名随机对战,该项目方LM[…]
SuperCLUE是一个中文通用大模型综合性评测基准,从三个不同的维度评价模型的能力:基础能力、专业能力和中[…]
MMLU全称MassiveMultitaskLanguageUnderstanding,是一种针对大[…]
C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2[…]
HELM全称HolisticEvaluationofLanguageModels(语言模型整体评估)是[…]
CMMLU是一个综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力,涵盖了从基础学科到高级[…]
您的邮箱地址不会被公开。 必填项已用 * 标注
评论 *
显示名称 *
邮箱 *
网站
在此浏览器中保存我的显示名称、邮箱地址和网站地址,以便下次评论时使用。
ChatbotArena是一个大型语言模型(LLM)的基准平台,以众包方式进行匿名随机对战,该项目方LM[…]