ImageVerifierCode 换一换
格式:PPTX , 页数:31 ,大小:3.11MB ,
资源ID:30811700      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/30811700.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(AI大语言模型的原理、演进及算力测算.pptx)为本站会员(zf)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

AI大语言模型的原理、演进及算力测算.pptx

1、人工智能、机器学习与神经网络简介,01,Transformer 模型结构分析大规模语言模型算力需求测算(以GPT-3 为例)产业链相关公司风险提示,02,03,04,目录,05,一、人工智能、机器学习与神经网络简介,人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能的最终目标是使计算机能够模拟人的思维方式和行为。机器学习(Machine Learning,ML)是实现人工智能的一种途径,是一门专门研究计算机如何模拟或实现人类的学习行为、以获取新的知识或技能、重新组织已有的知识结构使之不

2、断改善自身性能的学科。机器学习包括数据、模型、算法三要素。从实践上来看,机器学习是在大数据的支撑下,通过各种算法让机器对数据进行深层次的统计分析以进行“自学”(训练模型),使人工智能系统获得了归纳推理和决策能力。机器学习作为一套数据驱动方法,已广泛应用于数据挖掘、自然语言处理、机器视觉、搜索引擎、医学诊断、生物特征识别、DNA序列测序、证券市场分析等领域。,机器学习是实现人工智能的途径之一,图:机器学习训练与推理示意图,资料来源:woshipm,国信证券经济研究所整理,图:机器学习三要素,资料来源:gitbook,国信证券经济研究所整理,模型及数据规模增加有利于提高深度神经网络性能,深度学习(

3、Deep Learning,DL)是机器学习的子集,由人工神经网络(ANN)组成。深度学习模仿人脑中存在的相似结构,其学习是通过相互关联的“神经元”的深层的、多层的“网络”来进行的。典型的神经网络从结构上可以分为三层:输入层、隐藏层、输出层。其中,输入层(input layer)是指输入特征向量;隐藏 层(hidden layer)是指抽象的非线性中间层;输出层(output layer)是指输出预测值。深层神经网络即包含更多隐藏层的神经网络。相比于传统机器学习模型,深度学习神经网络更能在海量数据上发挥作用。若希望获得更好的性能,不仅需要训练一个规模足够大的神经网络(即带有许多隐藏层的神经网络

4、,及许多参数及相关性),同时也需要海量的数据支撑。数据的规模及神经网络的计算性能,需要有强大的算力作为支撑。图:不同深度的神经网络模型结构示意图图:不同神经网络模型在不同数据量下性能曲线,资料来源:Coursera,吴恩达深度学习,国信证券经济研究所整理,资料来源:ShowMeAI,国信证券经济研究所整理,传统常见的神经网络模型包括卷积神经网络(CNN)和循环神经网络(RNN)等。其中,卷积神经网络(Convolutional Neural Network,CNN)多用于计算机视觉、自动驾驶、人脸识别、虚拟现实、医学领域、人机交互、智能安防等图像应用;相比于标准神经网络,CNN能够更好地适应高

5、纬度的输入数据,卷积设计有效减少了模型的参数数量。循环神经网络(Recurrent Neural Network,RNN)常用于处理序列数据(例如含有时间成分的音频和文本),获取数据中的时间依赖性。由于语言(无论是英语字母还是汉语汉字)都是逐个出现的,同时语言是时序前后相互关联的数据,因此语言作为最自然表达出来的序列数据,适合应用RNN进行语音识别、情感分类、机器翻译、语言生成、命名实体识别等应用。循环神经网络(RNN)曾是自然语言处理的首选解决方案。RNN能够在处理单词序列时,将处理第一个词的结果反馈到处理下一个词的层,使得模型能够跟踪整个句子而非单个单词。但RNN存在缺点:由于这种串行结构

6、,RNN无法对于长序列文本进行有效处理,甚至可能当初始单词过远时“遗忘”相关信息。,CNN和RNN是常见的神经网络模,型,图:卷积神经网络示意图,资料来源:深度卷积神经网络的发展及其在计算机视觉领域的应用,国信证券经济研究所整理,资料来源:深度学习(中文版),国信证券经济研究所整理,图:循环神经网络示意图,二、Transformer模型结构分析,Attention is all your need by OpenAI,作为与传统的CNN、RNN不同的深度学习模型架构,Transformer模型最初是被用于基于上下文的机器翻译模型。由于Transformer模型非串行结构,能够并行处理整个序列;

7、同时引入“注意机制”(attention),能够在文本序列中正向和反向地跟踪单词之间的关系,适合在大规模分布式集群中进行训练。Transformer以Encoder-Decoder架构为基础。其中,编码组件由多层编码器(Encoder)组成。解码组件也是由相同层数的解码器(Decoder)组成。Encoder用于提取源端语言的语义特征,而用Decoder提取目标端语言的语义特征,并生成相对应的译文。Transformer模型具有能够并行运算、关注上下文信息、表达能力强等优势。,Transformer模型以Encoder-Decoder架构为基,础,图:Transformer最初用于机器翻译,图

8、:Transformer模型介绍,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:Attention Is All You Need,国信证券经济研究所整理,图:Transformer以Encoder-Decoder架构为基础,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,词嵌入是NLP最基础的概念之一,表示来自词汇表的单词或者短语被映射成实数向量。最早的词嵌入模型是word2vec等神经网络模型,属于静态词嵌入(不关注上下文)。例如大模型诞生前常用的RNN模型所用的输入

9、便是预训练好的词嵌入。词向量能够将语义信息与空间,向量关联起来(例如经典的词类比例子:king、queen、man、woman对应词向量的关系)。词嵌入产生要素及步骤:Vocabulary:所有的token组成集合。词向量表:token与词向量的一一对应关系。词向量可以由预训练产生,也可以是模型参数。查表:输入的token都对应一个固定维度的浮点数向量(词嵌入向量)。,位置编码:表示序列中词的顺序,具体方法为为每个输入的词添加一个位置向量。根据位置编码对应计算公式,pos表示位置,i表示维度。位置编码能够让模型学习到token之间的相对位置关系。,Transformer模型结构分析词嵌入(Em

10、bedding),图:带有位置编码的词嵌入向量生成方法,图:位置编码对应计算公式,图:经典的词类比例子,资料来源:Towards Understanding Linear Word Analogies,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:Attention Is All You Need,国信证券经济研究所整理,编码组件可由多层编码器(Encoder)组成,同样解码组件也由相同层数的解码器(Decoder)组成。一般来讲,对于中间层的输出向量,底层Encoder输出的表示浅层含义,顶层Enco

11、der输出的表示深层含义。每个Encoder由两个子层组成:Self-Attention层(自注意力层)和 Feed Forward Network(FFN,前馈网络)组成。对于每一层Encoder,词嵌入向量输入会首先进入Self-Attention层,Encoder对词向量进行编码时,会对整句输入的上下文均进行Attention操作,从而关注并使用到输入句子的上下文的信息。Decoder端存在Cross-Attention层(Encoder-Decoder Attention层),用于解码时对输入部分的信息进行Attention关注。经过Self-Attention层的输入进入前馈网络,前

12、馈网络一般是全连接层网络(并经过非线性的激活函数,如ReLU函数)。全连接层是最基本的神经网络,每一个结点都与上一层的所有结点相连。ReLU函数:即修正线性单元(Rectified linear unit),又称线性整流函数,通常指以斜坡函数及其变种为代表的非线性函数。激活函数:为使神经网络具有拟合函数的能力而引入非线性;如不引入非线性,则无论多少层神经网络都相当于一个线性映射。,Transformer模型结构分析,Encoder,图:数据在Encoder中流动示意图,下一个Encoder的输入是上一个Encoder的输出,以此类推。图:编码组件和解码组件均可由多层Encode/Decoder

13、组成图:Encoder由Self-Attention和FFN两个子层组成,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,Transformer模型结构分析 Attention,Attention机制:编码时,模型不仅能够关注当前位置的词语,同时能够关注上下文的词语。Attention由Q(Query)、K(Key)、V(Value)

14、三个矩阵实现(分别对应q、k、v三组向量;其中产生Q、K、V的三个权重矩阵W、W、W为模型参数,通过训练获得)。对于计算某一词向量x1与其他词向量(包括自身)的注意力分数时,用该词向量的q1分别与其他词向量(包括自身)的 k向量点积,得到注意力分数;以该注意力分数经过Softmax函数进行归一化处理后,得到对应权重,表示为该词向量x1与所有位置词向量的注意力权重。以该权重对对应词向量的v向量进行加权求和,得到Self-Attention层在该位置的输出。图:以Q、K、V矩阵计算缩放点积Attention流程图图:词向量进入Self-Attention层后q、k、v向量计算步骤图图:以矩阵表示的

15、Attention计算示意图,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:Attention Is All You Need,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,Transformer模型结构分析Multi-head,Attention,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理图:Multi-head Attention计算方法与流程总结,Multi-head Attent

16、ion即多头注意力机制,采用,图:Multi-head Attention原理示意图,多组不同的线性变换对Q、K、V矩阵进行映射并分别计算Attention,再将不同的Attention结果拼接起来进行线性变换。Multi-head Attention本质是在参数总量保持不 变的情况下,将Q、K、V映射到高维空间的不同子空间进行Attention计算,防止过拟合。资料来源:Attention Is All You Need,国信证券经济研究所整理,图:词嵌入矩阵与不同权重、矩阵运算,得到不同Q、K、V矩阵,图:不同子空间Attention运算后得到对应输出结果图:不同子空间输出进行整合运算的方

17、法,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,训练时:输入样本句子(即翻译后的正确结果);推理时:输入待定词(即mask)组成的句子。,Transformer模型结构分析,Decoder,Mask(掩码)分为Padding Mask和Sequence Mask。其中,Padding Mask用于填充输入序列长度,保持输入序列对齐

18、;Sequence Mask用于Masked Multi-Head Attention层中,使得Decoder不能获取未来的信息,从而在每个位置上仅能根据之前位置的输出结果及Encoder-Decoder Attention得到当前位置的输出。当Decoder某一序列位置产生输出结果后,首先通过线性层将该输出向量映射成为维度数与vocabulary内的词数一致的向量,并通过Softmax层将每一维数字归一化为概率(即归一化后每一维数字代表对应token的概率)。训练时,构造损失函数,训练模型参数使得衡量输出概率与样本概率分布之差的损失函数值最小。推理时,根据概率采样(例如最大概率所对应)的输出

19、词即为该位置的输出结果。图:Decoder数据输入与输出流程示意图图:Decoder通过计算概率预测下一个token,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,资料来源:The Illustrated Transformer,GitHub,国信证券经济研究所整理,三、大规模语言模型算力需求测算(以GPT-3为例),BERT(Bidirectional Encoder Representations from Transformer)能够生成深度双向语言表征,是采用有掩带码(mask)的大语言模型,类似于完形填空,根据上下文预测空缺处

20、的词语。结构上,BERT仅采用Transformer架构的Encoder部分。GPT(Generative Pre-training Transformer)是生成式预训练的单向语言模型。通过对大量语料数据进行无监督学习,从而实现文本生成的目的。结构上,GPT仅采用Transformer架构的Decoder部分。自2018年6月起OpenAI发布GPT-1模型以来,GPT更新换代持续提升模型及参数规模。随着OpenAI于2022年11月30日发布ChatGPT引爆AI领域,海内外科技公司纷纷宣布发布大语言模型。用户爆发式增长对大语言模型的算力需求带,BERT和GPT是基于Transformer

21、架构的两种大规模语言模,型构建语言模型(Language Model,LM)是自然语言处理(Natural Language Processing,NLP)中最基本和最重要的任务之一,自然语言处理基于Transformer架构衍生出了两种主流大语言模型(Large Language Model,LLM)BERT和GPT。二者都是无监督预训练的大语言模型。,来挑战。图:2018年6月以来发布的模型BERT和GPT 以Transformer架构为主,图:基于Transformer架构的BERT和GPT模型示意图,资料来源:Attention Is All You Need,国信证,券经济研究所整理

22、,资料来源:ShowMeAI,国信证券经济研究所整理,BERT,GPT,图:国内外科技企业发语言模型发布情况,Improving Language Understanding by Generative Pre-Training by OpenAI GPT-1是生成式预训练模型,核心思想是“预训练+微调”的半监督学习方法,目标是服务于单序列文本的生成式任务。生成式:表示模型建模的是一段句子出现的概率,可以分解为基于语言序列前序已出现单词条件下后一单词出现的条件概率之乘积。例如:P(一颗苹果)=P(一)P(颗|一)P(苹|一颗)P(果|一颗苹);P(一苹颗果)=P(一)P(苹|一)P(颗|一苹)

23、P(果|一苹颗)。预训练(无监督学习):在无标注语料上进行无监督的预训练,通过最大化似然函数从而得到标准的GPT模型。微调(有监督学习):针对特定下游任务,采用特定的有标签数据进行微调,得到专用于情感分析、机器翻译等特定功能的模型。,GPT-1:预训练+微调的半监督学习模,型,图:GPT-1“预训练+微调”模型示意图,资料来源:Improving Language Understanding by Generative Pre-Training,国信证券经济研究所整理,四大常见应用:分类、蕴含、相似、选择分类:每段文本具有对应标号,将文本按标号进行分类蕴含:给出一段文本和假设,判断该段文本中是

24、否蕴含该假设相似:判断两段文本是否相似(用于搜索、查询、去重等)选择:对有多个选项的问题进行回答,Language Models are Unsupervised Multitask Learners by OpenAI,预训练+微调的范式只能对于特定自然语言处理任务(例如问答、机器翻译、阅读理解、提取摘要等)使用特定的数据集进行有监督学习,单一领域数据集缺乏对多种任务训练的普适性。,GPT-2:强调多任务的预训练模,型,图:GPT-2在部分自然问题集上生成的答案及对应正误、概率情况,资料来源:Bloomberg,国信证券经济研究所整理,GPT-2在预训练阶段便引入多任务学习机制,通过加入各种

25、NLP任务所需要的数据集,在尽可能多的领域和上下文中收集属于对应任务的自然语言。由此得到的GPT-2模型可以以zero-shot的方式被直接应用于下游任务,而无需进行有监督的精调。GPT-2将多样化的的NLP任务全部转化为语言模型问题。语言提供了一种灵活的方式来将任务,输入和输出全部指定为一段文本。对文本的生成式建模就是对特定任务进行有监督学习。即,所有NLP任务中的样本都能归结为一句自然语言文本。例如,翻译训练样本可以写成序列“翻译为法语,英语文本,法语文本”。同样,阅读理解训练的例子可以写成序列“回答问题,文档,问题,答案”。,GPT-3:能够举一反三的大语言模,型,Language Mo

26、dels are Few-Shot Learners by OpenAI相比GPT-2,GPT-3大幅增加了模型参数。GPT-3是具有1750亿个参数的自回归语言模型,更能有效利用上下文信息。对于特定的下游任务,GPT-3无需进行任何梯度更新或微调,仅需通过与模型交互并提供少量范例即可。特点:1、模型规模急剧增加(使得模型性能提升迅猛);2、实现few-shot learning。in-context learning:对模型进行引导,使其明白应输出什么内容。Q:你喜欢吃苹果吗?A1:我喜欢吃。A2:苹果是什么?A3:今天天气真好。A4:Do you like eating apples?,图

27、:zero-shot、one-shot和few-shot与传统微调形成对比,资料来源:腾讯云开发者,国信证券经济研究所整理,采用prompt提示语:汉译英:你喜欢吃苹果吗?请回答:你喜欢吃苹果吗?in-context learning三种方式:不需要进行参数更新,仅需把少量标注样本作为输入文本的上下文仅提示zero-shot(0S):仅需给出任务描述一个范例one-shot(1S):仅需给出任务描述和一个示例多个范例few-shot(FS):仅需给出任务描述和少量示例图:语言模型的元学习图:一个简单任务中不同参数模型上下文学习性能资料来源:Language Models are Few-Sho

28、t Learners,国信证券经济研究所整理图:GPT-1至GPT-3模型参数,资料来源:Language Models are Few-Shot Learners,国信证券经济研究所整理,资料来源:Language Models are Few-Shot Learners,国信证券经济研究所整理,Training language models to follow instructions with human feedback by OpenAI过往GPT模型存在的问题:语料库偏差,继续使用无监督学习扩大模型无法达到使用目的(编造事实、有偏见文本等)。,GPT-3.5(ChatGPT):引

29、入人类反馈强化学习机,制,资料来源:Training language models to follow instructions with human feedback,国信证券经济研究所整理,GPT-3.5通过使用人类反馈的数据集进行监督学习(RLHF,即reinforcement learning from human feedback),对 GPT模型进行微调。主要分为以下三步:图:GPT-3.5模型架构示意图1、根据人工标注的数据集构造示范样本,进行有监督的微调,训练出有监督的微调模型。2、构造Reward模型,通过人工对输出结果标注并进行比较排序打分,训练Reward模型,学习对输

30、出进行排序打分。3、采用PPO(Proximal policy optimization,近端策略优 化,一种强化学习算法),通过不断与环境交互(如ChatGPT不断从训练集中抽取问题并生成解答)以训练GPT模型,使Reward模型打分最大化。结果显示:通过构建人类反馈的数据集,使用有监督学习微调模型,能够使得模型输出与人类意图一致。,算力有效性:在4月GTIC 2023中国AIGC创新峰会上,NVIDIA消费互联网行业,解决方案架构师负责人徐添豪提出,NVIDIA的NeMo Framework在训练GPT-3过程中能使得硬件算力有效性能达到50 以上。GPT-3模型参数量与样token数:G

31、PT-3参数量达1750亿个,训练样本token数达3000亿个。训练时间要求:假设GPT-3模型每次训练时间要求在30天完成。推理访问次数:按谷歌每日搜索量35亿次进行估计;假设每次访问提问4次,每次提问+回答需处理字数425字,平均每个字转换为token比例为4/3,则每日 GPT-3需推理token数为79330亿个。,大语言模型带来的算力需求测算以GPT-3为例(假设部分),训练所需CPU数=,训练样本token数 单token训练所需运算次数单颗芯片最大算力 算力有效性 训练时间要求,推理所需CPU数=,推理访问次数 单次访问处理字数 字数与token转换倍数 单token推理所需运

32、算次数单颗芯片最大算力 算力有效性,规定推理时间,图:所需CPU数量计算公式,资料来源:国信证券经济研究所整理,图:算力测算参数假设,资料来源:OpenAI官网,国信证券经济研究所整理,训练阶段:考虑采用精度为32位的单精度浮点数数据进行训练,2592000 秒),则对应GPT-3 训练所需算力为,和推理。以A100 PCle芯片为例(H100 PCle芯片同理),根据前述公式,GPT-3训练所需运算次数为:样本token数3000亿个*6*参数量1750亿个=315*1021FLOPs;考虑训练时间要求在30天完成(训练时间为121528TFLOPS;结合A100有效算力78TFLOPS,得

33、到所需GPU数量为1558个,对应AI服务器为195台。推理阶段:根据前述公式,GPT-3每日需推理token数为79330亿个,则推理所需运算次数为4760*1021FLOPs;考虑推理时间以每日为单位(推理时间为86400秒),则对应GPT-3推理所需算力为55*106TFLOPS;结合A100有效算力78TFLOPS,得到所需GPU数量为706315个,对应AI服务器为8.8万台。,大语言模型带来的算力需求测算以GPT-3为例(结论部分),图:训练阶段算力需求测算过程及结论,资料来源:英伟达官网,国信证券经济研究所整理及预测,图:推理阶段算力需求测算过程及结论,资料来源:英伟达官网,国信证券经济研究所整理及预测,训练:指利用大数据训练神经网络,通过大量数据确定网络中的权重和偏置的值,使其能够适应特定功能。推理:指利用训练好的模型,使用新的数据推理和判断出各种结论。token:语言模型

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1