「快意」大规模语言模型(KwaiYii)

简介

        「快意」大模型(KwaiYii) 是由快手AI团队从零到一独立自主研发的一系列大规模语言模型(Large Language Model,LLM),当前包含了多种参数规模的模型,并覆盖了预训练模型(KwaiYii-Base)、对话模型(KwaiYii-Chat)。这里面我们介绍13B规模的系列模型KwaiYii-13B,其主要特点包括:

  • KwaiYii-13B-Base预训练模型具备优异的通用技术底座能力,在绝大部分权威的中/英文Benchmark上取得了同等模型尺寸下的State-Of-The-Art效果。例如,KwaiYii-13B-Base预训练模型在MMLU、CMMLU、C-Eval、HumanEval等Benchmark上目前处于同等模型规模的领先水平。
  • KwaiYii-13B-Chat对话模型具备出色的语言理解和生成能力,支持内容创作、信息咨询、数学逻辑、代码编写、多轮对话等广泛任务,人工评估结果表明KwaiYii-13B-Chat超过主流的开源模型,并在内容创作、信息咨询和数学解题上接近ChatGPT(3.5)同等水平。

Benchmark评测效果

        我们选取了行业中被广泛认可的权威Benchmark进行评测,例如体现英文综合能力的MMLU、体现中文综合能力的C-Eval和CMMLU、体现中小学数学能力的GSM8K以及体现代码能力的HumanEval,并与行业上的主流模型在上述Benchmark上汇报的指标结果进行比较。具体对比结果如下所示:

  • C-Eval是一个全面的中文基础模型评测数据集,由清华大学、上海交通大学和爱丁堡大学合作构建,包含12342道单项选择题,涵盖数学、物理、化学、生物、历史、政治、计算机等52个不同学科和四个难度级别,是最具影响力的中文综合性考试评测集之一。其采用5-shot的方式进行评测。
Model 5-shot Average STEM Social
Sciences
Humanities Others
预训练模型 KwaiYii-13B-Base 62.6 52.7 74.1 68.8 63.7
ChatGLM2-12B-Base 61.6 55.4 73.7 64.2 59.4
Qwen-7B 59.6 52.8 74.1 63.1 55.2
Baichuan-13B-Base 53.6 47 66.8 57.3 49.8
对话模型 ChatGLM2 71.1 64.4 81.6 73.7 71.3
GPT-4 68.7 67.1 77.6 64.5 67.8
KwaiYii-13B-Chat 59.0 49.9 69.2 63.9 61.0
ChatGLM2-12B-Chat 57.0 52.1 69.3 58.5 53.2
GPT-3.5 54.4 52.9 61.8 50.9 53.6
Baichuan-13B-Chat 51.5 43.7 64.6 56.2 49.2
  • MMLU由加州大学伯克利分校等知名高校共同打造,集合了科学、工程、数学、人文、社会科学等领域的57个科目,包含14079道单项选择题,主要目标是对模型的英文跨学科专业能力进行深入测试。其内容广泛,从初级水平一直涵盖到高级专业水平,同样采用5-shot方式进行评测。
Model 5-shot Average STEM Social
Sciences
Humanities Others

预训练模型

KwaiYii-13B-Base57.4246.8268.8351.5664.96
Qwen-7B56.7
ChatGLM2-12B-Base56.1848.1865.1352.5860.93
Llama2-13B-Base54.8
Baichuan-13B-Base51.641.660.947.458.5
Llama1-13B-Base46.9

对话模型

GPT-486.4
GPT-3.570.0
KwaiYii-13B-Chat56.4446.7966.3650.7364.28
ChatGLM2-12B-Chat52.1347.0061.0046.1056.05
Baichuan-13B-Chat52.140.960.948.859.0
  • CMMLU是一个综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题,包括:需要计算和推理的自然科学,需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等,共11582道单项选择题。此外,CMMLU中的许多任务具有中国特色,可能在其他地区或语言中并不普遍适用,是一个完全中国化的中文测试基准。评测分别采用5-shot和0-shot的方式进行。
Model 5-shot平均分STEM人文学科社会科学其他中国特定
主题
预训练模型KwaiYii-13B-Base61.7346.5469.2264.4965.0963.10
Qwen-7B-Base58.6648.3963.7761.2262.1458.73
MiLM-6B57.1746.8561.1261.6858.8459.39
Baichuan-13B-Base55.8242.3861.6160.4459.2656.62
ChatGLM2-6B-Base48.8042.5550.9850.9950.8048.37
对话模型GPT-470.9565.2372.1172.0674.7966.12
KwaiYii-13B-Chat59.9747.3365.8562.1962.2361.00
Baichuan-13B-Chat55.842.862.659.759.056.1
GPT-3.555.5147.8155.6856.5062.6650.69
Model 0-shot平均分STEM人文学科社会科学其他中国特定
主题
预训练模型KwaiYii-13B-Base61.2246.8269.3563.4264.0263.26
MiLM-6B60.3748.8863.4966.2062.1462.07
Qwen-7B-Base57.5746.3362.5460.4861.7258.77
Baichuan-13B-Base54.6342.0460.4959.5556.6055.72
ChatGLM2-6B-Base49.9541.2852.8553.3752.2450.58
对话模型GPT-468.9063.1669.1970.2673.1663.47
KwaiYii-13B-Chat60.4146.1566.4963.2562.6861.94
GPT-3.553.2244.8053.6154.2259.9549.74
  • GSM8K是由OpenAI构建的高中数学应用题数据集,包含8500道高质量的数据,主要目标是对模型的数学推理能力进行评测,其中测试集1319条数据,每个问题都需要2-8个步骤来解决,解决方案主要包括使用基本算术运算(+ − × ÷)进行一系列的基本计算,以得到最终答案。其采用8-shot进行评测。
Model 8-shotGSM8K
预训练模型Qwen-7B-Base51.6
KwaiYii-13B-Base48.4
ChatGLM2-12B-Base40.94
Llama2-13B-Base28.7
Baichuan-13B-Base22.44

对话模型

GPT-492.0
GPT-3.557.1
KwaiYii-13B-Chat52.2
Qwen-7B-Chat43.5
ChatGLM2-12B-Chat38.13
  • HumanEval是OpenAI和Anthropic AI一起制作的代码数据集,包含164个原创编程题,涉及语言理解、算法、数学和软件面试几种类型的题目。其采用0-shot的方式进行评测。
Model 0-shotHumanEval
@Pass1

预训练模型

KwaiYii-13B-Base40.8
Qwen-7B-Base24.4
Llama2-13B-Base18.3
Llama1-13B-Base15.8

对话模型

GPT-467.0
GPT-3.548.1
KwaiYii-13B-Chat43.3
Qwen-7B-Chat24.4
Llama2-13B-Chat15.85

        从对比结果可以看出,KwaiYii-13B-Base及KwaiYii-13B-Chat模型在各榜单中均处于领先水平。在MMLU、CMMLU、C-Eval等体现综合学科类的Benchmark上领先,说明KwiiYii-13B-Base预训练模型在中英文双语学科和行业领域的知识能力突出。在GSM8K数学评测集上及HumanEval编程测评集上的优异表现,则体现了模型较好的数理逻辑及代码能力。

人工评测结果

        Benchmark指标体现了语言模型的基础理解能力,更直观地,我们人工评估了模型在各类任务上遵循用户指令的能力。我们构建了一个高质量评测集,包含了内容创作、信息咨询、数学解题、逻辑推理、代码能力和多轮对话共6个类别。其中内容创作包括文章写作、翻译、摘要总结等根据给定约束生成文本的任务,以及对实体/事件的观点描述等;信息咨询偏向信息获取,如知识/常识咨询,景点、电影和音乐推荐等;数学解题主要包含四则运算、应用题、方程等数学问题;逻辑推理主要包括事实推理、演绎推理和数据统计等;代码能力包含代码编写、代码调试、Bug分析;多轮对话则主要体现在一个Session中持续对话的上下文意图理解和产生正确回复的能力。

        为了直观地比较待评测模型与ChatGPT的效果差异,对于评测集中的每个问题,我们都评测了其与ChatGPT的Good:Same:Bad(下文简称GSB,其中Good表示评测集中,待评测模型比ChatGPT表现更好的数量,Same则表示表现持平的数量,Bad则是待评测模型比ChatGPT表现更差的数量)结果。具体而言,我们将待评测模型与ChatGPT进行双盲对比测试:对于每一个Query,我们隐藏模型信息,并打乱两个模型的答案顺序,然后分配给多名评测者,评测人员根据内容正确性、内容相关性、内容详实性等维度进行打分,然后从“模型A好”、“模型B好”、“两者一样好”、“两者都一般”以及“两者一样差”五个选项中进行选择,最终再根据多名评测人员的GSB评测结果,按照规则拟合成该条数据的统一GSB结果。

        我们对KwaiYii-13B-Chat模型以及同等参数规模的行业主流模型,均与ChatGPT(3.5)进行了对比和人工评估,其各自的得分如下图所示。从人工评估的结果来看,KwaiYii-13B-Chat超过了同等规模的开源模型,并接近ChatGPT同等水平。在内容创作、信息咨询、逻辑推理和数学解题上,基本与ChatGPT(3.5)效果相当。在多轮对话能力方面,KwaiYii-13B-Chat超过同等规模的开源模型,但与ChatGPT(3.5)仍有一定差距。注意:人工评估结果受到评测数据覆盖面、标注主观性等因素的影响,无法全面反映大语言模型的所有能力。

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun256508.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2023年9月18日 下午8:47
下一篇 2023年9月19日

相关推荐